《iPhone News 愛瘋了》報導,蘋果的 Apple Intelligence 研究團隊最近發布了兩個新的高效能語言模型,用於訓練人工智慧生成器。
這些模型雖然體積小,但效能非常出色,可以媲美目前市場上的領先模型如 Llama 3 和 Gemma。
高效能語言模型的詳細介紹
蘋果的機器學習團隊不僅專注於模型的開發,還積極參與一個開源的語言模型資料包專案。此次發布的兩個模型分別是:
- 大型模型:包含 70 億個參數,適用於複雜的 AI 訓練任務。
- 小型模型:包含 14 億個參數,適用於資源有限的環境。
與領先模型的對比
在基準測試中,蘋果的大型模型表現超越了之前的頂級模型 MAP-Neo,高出 6.6%。
這顯示了蘋果在 AI 訓練模型方面的卓越能力。
開源專案與標準框架
蘋果參與的開源語言模型專案,旨在提供一個標準框架,用於訓練如 ChatGPT 等人工智慧引擎。這些框架包括:
- 架構設計:模型的基本結構設計,確保高效運行。
- 參數設置:影響模型性能的數據設置。
- 資料集過濾:確保訓練數據的高品質和相關性。
訓練資料集的有效性
這些新模型在策劃用於訓練人工智慧模型的小型或大型資料集方面,展示了很高的有效性,為 AI 研究社區提供了更多可能性。
運算能力的改進
蘋果的 DataComp-LM 模型使用的運算能力減少了 40%,在節省資源的同時,依然保持了優異的性能,這是 AI 訓練領域的一大突破。
未來的發展方向
雖然這些模型目前無意用於未來的蘋果產品,但它們作為社區研究項目的成果,展示了蘋果在 AI 語言模型研發方面的進展。
蘋果的 AI 團隊將繼續努力,未來可能會推出更多創新型語言模型和應用。
蘋果AI語言模型
蘋果最新發布的語言模型,不僅展示了其在人工智慧領域的領先地位,還通過參與開源專案和改進運算效率,為 AI 研究社區提供了寶貴的資源和創新思路。
《iPhone News 愛瘋了》表示,隨著技術的不斷進步,我們可以期待蘋果在 AI 研究中的更多突破和貢獻。
發表留言