搜尋

我能在26年前的主機上跑語言模型嗎?

簡單回答:可以。Emotion Engine總共只有32 MB記憶體,所以訣竅是在前向傳播時從CD-ROM串流權重,一次一個矩陣——只有激活值、KV快取和嵌入層會留在記憶體中。這代表比記憶體還大的模型依然能跑,只是需要從光碟讀取更多資料。必須建立自訂量化格式(PSNT)、處理位元組順序、編寫分詞器流程,並從頭打造大部分PS2 SDK(會另外釋出)。模型本身也是客製化的——我專門為此訓練了一個1000萬參數的Llama風格架構。而且真的能跑。在實體硬體上。

  • 內容創作
  • 大型語言模型
  • 研究助理
Mar 21, 2026造訪官網

AI 摘要

這項專案展示了如何在PlayStation 2上執行1000萬參數的Llama風格語言模型,透過從CD-ROM串流權重資料來克服主機記憶體限制。過程中建立了自訂量化格式、修改PS2 SDK,並開發了專用分詞器。

適合誰

復古電腦愛好者, 嵌入式系統開發者, 對資源受限環境感興趣的AI研究人員

為何值得關注

透過創新的資料串流技術與客製化軟體開發,讓極度受限的硬體也能執行現代AI模型。

核心功能

  • 在 PlayStation 2 上運行一個 1000 萬參數的 Llama 風格語言模型。
  • 從 CD-ROM 串流模型權重以克服 32MB RAM 的限制。
  • 使用自定義量化格式(PSNT)處理模型權重。
  • 包含自定義的分詞器管道。

使用場景

  • 一位懷舊電腦愛好者可以利用這個工具在古董硬體上實驗AI,展示舊系統執行現代任務的能力。
  • 專注於復古風格遊戲的遊戲開發者,可能會將這個LLM整合到PlayStation 2遊戲中,生成動態的遊戲對話或背景故事,增添獨特的互動元素。
  • 學習AI模型優化的學生,可以研究量化與串流模型權重的技術,並將這些原理應用於資源受限的嵌入式系統。