(央視財(cái)經(jīng)《第一時(shí)間》)美國(guó)開(kāi)放人工智能研究中心OpenAI,15日發(fā)布了首個(gè)視頻生成模型,該模型可通過(guò)接收文本指令,生成相應(yīng)的視頻。 據(jù)美國(guó)開(kāi)放人工智能研究中心官網(wǎng)介紹,該公司正在努力讓人工智能“理解和模擬處在運(yùn)動(dòng)當(dāng)中的物理世界”。此次發(fā)布的文字轉(zhuǎn)視頻模型可以依據(jù)用戶輸入的指令,生成一段時(shí)長(zhǎng)可達(dá)1分鐘的視頻。也能獲取現(xiàn)有的靜態(tài)圖像并從中生成視頻,還能獲取現(xiàn)有視頻,進(jìn)行擴(kuò)展或填充缺失內(nèi)容。 據(jù)介紹,該模型能夠生成包含多個(gè)角色以及特定類型運(yùn)動(dòng)的復(fù)雜場(chǎng)景,并能精確生成物體和背景的細(xì)節(jié)。目前的模型仍然存在缺陷,例如,它可能難以精確模擬復(fù)雜場(chǎng)景的物理狀況,也可能無(wú)法理解一些特定的因果和時(shí)間聯(lián)系等。此外,模型還可能混淆一些文本指令中的空間細(xì)節(jié),例如左右方向等。 相關(guān)領(lǐng)域?qū)<覍?duì)模型展開(kāi)測(cè)試,目前,該模型只向有限數(shù)量的創(chuàng)作者提供訪問(wèn)權(quán)限。 來(lái)源:央視財(cái)經(jīng) 編輯:魏之惠 |
潮新聞客戶端 記者 沈愛(ài)群 記者從應(yīng)急管理部獲悉,4月6日
IT之家 4 月 6 日消息,據(jù)財(cái)聯(lián)社報(bào)道,韓國(guó)官員周日表示,
手機(jī)APP
官方微博
官方微信