|
零基礎AI入門實戰(zhàn)(深度學習+Pytorch),AI必備基礎
通俗易懂 零基礎入門 案例實戰(zhàn) 跨專業(yè)提升
課程內(nèi)容: 001-課程介紹.mp4 002-1-神經(jīng)網(wǎng)絡要完成的任務分析.mp4 003-2-模型更新方法解讀.mp4 004-3-損失函數(shù)計算方法.mp4 005-4-前向傳播流程解讀.mp4 006-5-反向傳播演示.mp4 007-6-神經(jīng)網(wǎng)絡整體架構詳細拆解.mp4 008-7-神經(jīng)網(wǎng)絡效果可視化分析.mp4 009-8-神經(jīng)元個數(shù)的作用.mp4 010-9-預處理與dropout的作用.mp4 011-1-卷積神經(jīng)網(wǎng)絡概述分析.mp4 012-2-卷積要完成的任務解讀.mp4 013-3-卷積計算詳細流程演示.mp4 014-4-層次結構的作用.mp4 015-5-參數(shù)共享的作用.mp4 016-6-池化層的作用與效果.mp4 017-7-整體網(wǎng)絡結構架構分析.mp4 018-8-經(jīng)典網(wǎng)絡架構概述.mp4 019-1-RNN網(wǎng)絡結構原理與問題.mp4 020-2-注意力結構歷史故事介紹.mp4 021-3-self-attention要解決的問題.mp4 022-4-QKV的來源與作用.mp4 023-5-多頭注意力機制的效果.mp4 024-6-位置編碼與解碼器.mp4 025-7-整體架構總結.mp4 026-8-BERT訓練方式分析.mp4 027-1-PyTorch框架與其他框架區(qū)別分析.mp4 028-2-CPU與GPU版本安裝方法解讀.mp4 029-1-數(shù)據(jù)集與任務概述.mp4 030-2-基本模塊應用測試.mp4 031-3-網(wǎng)絡結構定義方法.mp4 032-4-數(shù)據(jù)源定義簡介.mp4 033-5-損失與訓練模塊分析.mp4 034-6-訓練一個基本的分類模型.mp4 035-7-參數(shù)對結果的影響.mp4 036-1-任務與數(shù)據(jù)集解讀.mp4 037-2-參數(shù)初始化操作解讀.mp4 038-3-訓練流程實例.mp4 039-4-模型學習與預測.mp4 040-1-輸入特征通道分析.mp4 041-2-卷積網(wǎng)絡參數(shù)解讀.mp4 042-3-卷積網(wǎng)絡模型訓練.mp4 043-1-任務分析與圖像數(shù)據(jù)基本處理.mp4 044-2-數(shù)據(jù)增強模塊.mp4 045-3-數(shù)據(jù)集與模型選擇.mp4 046-4-遷移學習方法解讀.mp4 047-5-輸出層與梯度設置.mp4 048-6-輸出類別個數(shù)修改.mp4 049-7-優(yōu)化器與學習率衰減.mp4 050-8-模型訓練方法.mp4 051-9-重新訓練全部模型.mp4 052-10-測試結果演示分析.mp4 053-4-實用Dataloader加載數(shù)據(jù)并訓練模型.mp4 054-1-Dataloader要完成的任務分析.mp4 055-2-圖像數(shù)據(jù)與標簽路徑處理.mp4 056-3-Dataloader中需要實現(xiàn)的方法分析.mp4 057-1-數(shù)據(jù)集與任務目標分析.mp4 058-2-文本數(shù)據(jù)處理基本流程分析.mp4 059-3-命令行參數(shù)與DEBUG.mp4 060-4-訓練模型所需基本配置參數(shù)分析.mp4 061-5-預料表與字符切分.mp4 062-6-字符預處理轉換ID.mp4 063-7-LSTM網(wǎng)絡結構基本定義.mp4 064-8-網(wǎng)絡模型預測結果輸出.mp4 065-9-模型訓練任務與總結.mp4 066-1-基本結構與訓練好的模型加載.mp4 067-2-服務端處理與預測函數(shù).mp4 068-3-基于Flask測試模型預測結果.mp4 069-1-視覺transformer要完成的任務解讀.mp4 070-1-玩法源碼準備.mp4 071-2-源碼DEBUG演示.mp4 072-3-Embedding模塊實現(xiàn)方法.mp4 073-4-分塊要完成的任務.mp4 074-5-QKV計算方法.mp4 075-6-特征加權分配.mp4 076-7-完成前向傳播.mp4 077-8-損失計算與訓練.mp4
自媒體課程回復可見:
|