跳到主要內容

AI發展卡關 業者摸索新模式


經濟日報/A7版/國際
編譯吳孟真╱綜合外電
2024年11月12日   人氣: 43   開始朗讀

網路識讀

隨著用來訓練人工智慧(AI)的大型語言模型(LLM)進步速度變慢,OpenAI和其他AI業者正透過開發新的訓練方法,尋求克服AI模型發展瓶頸的方式,這可能重塑AI硬體的競爭版圖。

 

路透報導,ChatGPT問世後,科技業者不斷對外宣稱,透過更多數據和算力來「擴大」現有模型,定能持續改善模型。如今一些最傑出的AI科學家卻說,這個「大就是好」的觀點有其限制。

 

LLM每一輪的訓練都可能耗費數百萬美元,也較容易出現由硬體造成的故障,且研究人員要在可能長達數個月的訓練期結束後,才知道模型的最終效能。

 

另外,LLM需要大量數據,而目前的AI模型已用盡世上所有容易取得的數據。再者,訓練模型需要大量能源,各地電力短缺的情況,也使訓練受阻。

 

為克服這些困難,研究人員正探索一個能在推論階段,提升現有AI模型的方法,稱為「測試時運算」(test-time compute)。此方法讓AI模型能將更多力氣用在特定的困難任務上。

 

OpenAI已在其最新發表的模型「o1」中使用此方法。o1能用類似人類推理的方式,多步驟「思考」問題。知情人士表示,其他AI業者如Anthropic、xAI和Google DeepMind,也都開始發展這種方法的自家版本。

 

相關文章

什麼是DigComp?
什麼是DigComp?

DigComp(Digital Competence Framework for Citizens)是由歐盟執委會聯合研究中心(EU Science Hub Joint Research Centre)最初於2010年提出並制訂的數位能力指標框架,被成員用作制定數位能力政策的指標。DigComp旨在描述個人在數位環境中所需的技能、知識和能力,以便有效地使用數位技術。其應用的範圍廣泛,舉凡教育、職業培訓、政策制定和個人發展等都可以將DigComp作為一種發展數位能力的評估工具。

短影音對青少年的影響
短影音對青少年的影響

隨著科技的進步及網路的普及,各種影音平臺也如雨後春筍般地出現,短影音(short video)形式的影音內容,最近更是受到青少年的喜愛。短影音顧名思義即是影片的時間非常的短,通常只有15秒到5分鐘的時間,表達一個概念或故事。短影音的崛起,除了反映行動裝置與高速行動網路的普及外,也反映出現代人生活型態的改變,像是在零碎的時間內(等人、等車、等餐,等上課,甚至是等泡麵),隨手可拿取手機或其他行動裝置來瀏覽短小訊息或收看短則影音。由於這些裝置幾乎都隨時處於待機的狀態,因此使用者連「等開機」的時間都不需

相關影片

氣噗噗大挑戰
氣噗噗大挑戰
如果短影音是…
如果短影音是…
另一個我
另一個我
有圖有真相?
有圖有真相?

返回網路識讀新聞列表

頁首