快訊 >

        【快播報】怎樣讓ChatGPT在其內部訓練神經網絡?先讓它想象自己有4塊3090

        時間:2023-02-19 06:50:54       來源:機器之心


        【資料圖】

        機器之心轉載

        來源:知乎作者:Posibilitee(悉尼大學人工智能與圖像處理博士)

        熱評:想象自己有四塊3090,什么賽博唯心主義?

        怎樣讓ChatGPT在其內部訓練神經網絡?這個話題有點超乎大多數人的理解。

        步驟是這樣的: 1. 先讓它偽裝成 Ubuntu 18.04,給它說你安裝了 Python 3.9, Pytorch 1.8, CUDA 11.3 和其他訓練一個 pytorch 模型所需要的庫。讓 ChatGPT 偽裝成 Linux 終端,這個梗在外網有過討論,這里需要讓他額外安裝(讓它自己認為安裝了)Python, Pytorch,CUDA,然后把執行指令和你告訴它的話區別開來, 這里用 {} 代表告訴它的話,而不帶 {} 統統是 Linux 指令。 這里我 讓它想象自己有四塊英偉達 3090 顯卡安裝了,然后看一下,果然執行 nvidia-smi 可以顯示 四塊顯卡! 2. 另外讓它在當前目錄生成一個 train.py 里面填上訓練一個 4 層 pytorch 模型所需的定義和訓練代碼。這里特地用 {} 偷偷告訴它在當前目錄生成一個 train.py,在里面用 Python 和 Pytorch 寫一個四層神經網絡的定義,然后有加載 MNIST 數據集的 dataloader,除此外還要有相應的訓練代碼, 為了以防萬一,告訴它你有成功在 MNIST 上訓練這個網絡的其它一切能力。 這里它告訴我寫了一個四層的網絡,可以執行 python3 train.py 來看輸出, 這里先偷偷看一下 train.py這里是它寫好的網絡定義這里是它寫好的訓練代碼3. 最后讓它執行 Python3 train.py 命令默認讓它執行了 10 個 Epoch它就真的訓練起來了,最主要的是告訴它不要顯示 train.py 內容, 因為 ChatGPT 輸出有字數限制。 當然告訴它修改訓練參數,可以多次訓練,還可以用上所有(虛擬)GPU 資源! ChatGPT 機智的跳過了中間 98 個 Epoch!更新:為了搞清楚 ChatGPT 是否真的執行了 model 的 forward,可以在 forward 定義中 加上 print 讓它打印一下輸入數據的 shape。 這次使用一個 5 層的神經網絡在 CIFAR-10 上訓練,指定在 forward 中加入一個 print shape 的操作,且在訓練過程中 只打印一次。 訓練一下,果然在訓練開始只打印了一次輸入的 shape,訓練的 loss 下降和 test accuracy 看起來也比較真實。 查看生成的 code, 發現 forward 里被插入了一句打印 shape 的命令,訓練過程中 forward 會被不斷調用,為什么 ChatGPT 能做到不增加計數器而只打印一次?推測 ChatGPT 是使用輔助 hint/comment “Print the shape of input once” 來達到此效果,細心會發現 print 操作與下邊的 out=self.layer1 (x) 之間空了一行,目的應該是執行一次這個操作只作用在 print 這條命令上(手動機靈)。 詭異的是,print 里的話(shape of input is)跟實際執行輸出 ( shape of input passed through the networkis) 還差了幾個字,這下徹底搞懵逼了! 另外發現, ChatGPT 互動機制是先保持一個對話 session,這個 session 可能隨時被服務器關閉(服務器資源不足時),這時為了用戶側仍有對話記憶效果,當前對話再次新建 session 時會把之前暫存的對話(用戶發的 requests)一次性發給 ChatGPT 重建 in context learning 環境,這樣用戶就不會感知掉線后 ChatGPT 把之前的對話記憶給忘了,這一點是在讓 ChatGPT 偽裝成 Linux 時掉線時才容易發現,如下: 一次執行了之前多個請示,里面還顯示了 GPU 占用 64% 分析一下 ChatGPT 可以偽裝 Linux,可以訓練神經網絡的機制:第一種可能是:ChatGPT 幾乎看了絕大部分開源項目,包括 Linux 和 Pytorch,所以 它理解一個 Linux 系統的行為該是什么樣的,甚至在 ChatGPT 參數里就包含一個 Linux 系統,當然對于更簡單的 Pytorch 自然不在話下,知道 Linux 和其它各種軟件的交互行為, 可以理解為 ChatGPT 是所有軟件的超集,可以讓它做神經網絡計算,包括 Conv, Matmul,國外有小哥讓它做 Conv 真就得到了正確的結果,說明 ChatGPT 在它的網絡中可以執行一個 Conv,當然網絡規模越大,能力越強就是這個道理。 第二種可能是: ChatGPT 沒有真正執行神經網絡的訓練,它只是看過很多的輸入輸出,對應一個網絡訓練理解訓練參數,網絡結構對輸出的影響, 直接模擬的輸出結果。 還有一種超越想象的是 ChatGPT 已經找到神經網絡各算子的最優解法,可以秒算結果,這種計算方式不是傳統形式,類似求梯度這種需要計算量很大的操作,是否找到了人類未知的解法? 原文鏈接:https://zhuanlan.zhihu.com/p/605163615 (點擊「閱讀原文」可直接跳轉)

        ?THE END

        轉載請聯系本公眾號獲得授權

        投稿或尋求報道:content@jiqizhixin.com

        關鍵詞: 神經網絡 當前目錄 自己認為

        首頁
        頻道
        底部
        頂部
        閱讀下一篇

        亚洲午夜电影在线观看高清 | 狠狠综合久久综合88亚洲| 91在线亚洲综合在线| 亚洲国产一区在线| 亚洲国产精品一区第二页| 国产亚洲一区二区三区在线| 久久久久久久综合日本亚洲 | 亚洲噜噜噜噜噜影院在线播放| 精品日韩亚洲AV无码一区二区三区 | 亚洲娇小性xxxx| 91嫩草亚洲精品| 亚洲一级毛片免费在线观看| 亚洲国产片在线观看| 久久精品亚洲一区二区三区浴池 | 亚洲va中文字幕无码久久| 欧洲亚洲国产清在高| 久久亚洲高清观看| 亚洲国产成人私人影院| 久久精品国产亚洲av麻豆小说 | 久久青青成人亚洲精品| 亚洲激情视频在线观看| 精品亚洲成a人片在线观看| 亚洲国产精品成人综合久久久| 亚洲av永久综合在线观看尤物| 一区二区亚洲精品精华液| 亚洲国产区男人本色| av无码东京热亚洲男人的天堂| 亚洲色偷拍区另类无码专区| 伊人久久综在合线亚洲91| 亚洲成av人片天堂网| 337p日本欧洲亚洲大胆精品555588 | 亚洲AV成人精品日韩一区18p| 亚洲一区二区三区国产精品| 亚洲中文字幕无码一区| 亚洲成av人片天堂网| 亚洲国产美女视频| 亚洲日本天堂在线| 亚洲精品国精品久久99热| 亚洲精品午夜国产VA久久成人| 亚洲午夜精品久久久久久人妖| 亚洲人成日本在线观看|