跳到主要內容

Meta進擊AI 推影片生成器


經濟日報/A6版/國際
編譯易起宇╱綜合外電
2024年10月17日   人氣: 39   開始朗讀

網路識讀

臉書母公司Meta 4日發表一套新人工智慧(AI)工具,可基於簡單的文字提示生成或編輯影片,將進一步拉高與OpenAI和Google等同業在開發全球最先進AI科技上的競爭。

 

彭博資訊報導,Meta的這款新產品Movie Gen,可基於文字提示生成出一段最長16秒的影片,也可使用文字提示替現有影片生成音效或編輯,或甚至使用照片創作以真人為主角的客製化影片。

 

這款產品目前只提供Meta部分內部員工和少數外部合作夥伴使用,包括一些製片公司,但也計劃明年某個時候將Movie Gen內建到其現有應用程式軟體(App)。

 

Meta負責生成式AI產品的副總裁海耶斯說,還在討論如何進行最好的整合,但這項產品目的是鼓勵更多民眾創作或編輯影片貼文,「這使用起來將會很有趣、有助於創作者、也有利於用戶整體對App的投入,但我們目前還沒有具體產品計畫」。

 

這款產品是Meta多方位進軍生成式AI科技的計畫一環。該公司過去幾年已花費數十億美元在AI科技上,並已把名為Meta AI的聊天機器人內建到其多數App中,可回答用戶問題或與用戶聊天互動。

 

這家社群媒體巨擘是致力於開發影片生成AI模型的多家科技大廠之一,這種模型比生成文字的AI模型還要複雜且造價不斐。微軟支持的OpenAI今年稍早也發表自己的影片生成工具Sora,影片長度最長可達一分鐘,但目前也尚未開放大眾使用。Google子公司DeepMind今年稍早則發表影片生成工具Veo。

 

Meta並不急著推出這款產品有幾個理由,包括這項技術的效率。海耶斯表示,目前生成一段影片要花費「數十分鐘」,這對可能在手機上使用該產品的一般消費者來說太久。

 

但海耶斯說,Meta也整理出「大量圍繞著安全和責任的真正重要問題」,包括如何控制個人化影片,好讓用戶無法在未經同意下,以他人為主角創作不適當或涉及醜化的影片,「那可能是我們在讓普羅大眾能用到這項功能前,須解決的最重要問題」。

 

這類技術過去被用於創作所謂的「深偽」(deepfake)影片,包括美國總統拜登和流行天后泰勒絲等名人都曾遭殃,但Meta主管已表示,正致力於在這些創作上加上「浮水印」,好讓民眾能分辨是AI生成的。

 

相關文章

什麼是DigComp?
什麼是DigComp?

DigComp(Digital Competence Framework for Citizens)是由歐盟執委會聯合研究中心(EU Science Hub Joint Research Centre)最初於2010年提出並制訂的數位能力指標框架,被成員用作制定數位能力政策的指標。DigComp旨在描述個人在數位環境中所需的技能、知識和能力,以便有效地使用數位技術。其應用的範圍廣泛,舉凡教育、職業培訓、政策制定和個人發展等都可以將DigComp作為一種發展數位能力的評估工具。

短影音對青少年的影響
短影音對青少年的影響

隨著科技的進步及網路的普及,各種影音平臺也如雨後春筍般地出現,短影音(short video)形式的影音內容,最近更是受到青少年的喜愛。短影音顧名思義即是影片的時間非常的短,通常只有15秒到5分鐘的時間,表達一個概念或故事。短影音的崛起,除了反映行動裝置與高速行動網路的普及外,也反映出現代人生活型態的改變,像是在零碎的時間內(等人、等車、等餐,等上課,甚至是等泡麵),隨手可拿取手機或其他行動裝置來瀏覽短小訊息或收看短則影音。由於這些裝置幾乎都隨時處於待機的狀態,因此使用者連「等開機」的時間都不需

相關影片

捏捏臉頰
捏捏臉頰
如果短影音是…
如果短影音是…
另一個我
另一個我
氣噗噗大挑戰
氣噗噗大挑戰

返回網路識讀新聞列表

頁首