99re热视频精品免费观看,久久精品囯产精品亚洲,亚洲香蕉看一线,一本久久a久久精品综合麻豆

                <small id="5b8fn"></small>

              中國首個視頻大模型Vidu顛覆而來,性能全面對標Sora!

              摘要:目前全世界有3.05億視頻創(chuàng)作者,每天有200億次以上的視頻播放量,視頻需求非常大。在“視頻為王”的時代,文生視頻大模型Vidu的問世,有望推動視頻創(chuàng)作者生產(chǎn)力革命,大幅降低生產(chǎn)成本與創(chuàng)作門檻!

              《中國AIGC應用全景報告》指出,今年中國AIGC(生成式人工智能)應用市場規(guī)模將達200億元,到2030年將達萬億規(guī)模,2024年到2028年的年平均復合增長率將超30%。在這個炙手可熱的賽道上,新模型與新應用正持續(xù)涌現(xiàn),不斷顛覆著內(nèi)容生產(chǎn)模式。

              4月27日,在中關(guān)村論壇未來人工智能先鋒論壇上,生數(shù)科技聯(lián)合清華大學正式發(fā)布了中國首個長時長、高一致性、高動態(tài)性視頻大模型Vidu。這是自Sora發(fā)布之后全球率先取得重大突破的視頻大模型,性能全面對標國際頂尖水平。

              與Sora一致,Vidu能夠根據(jù)提供的文本描述直接生成長達16秒的高質(zhì)量視頻,且分辨率高達1080P。

              生數(shù)科技方面介紹,Vidu采用的核心技術(shù)U-ViT架構(gòu),由團隊于2022年9月提出,早于Sora采用的DiT架構(gòu),是全球首個Diffusion(擴散概率模型)與Transformer融合的架構(gòu),完全由團隊自主研發(fā)。

              當前,Vidu主要有以下特點與優(yōu)勢:

              一是模擬真實物理世界,可以生成復雜、細節(jié)豐富的場景,光影 效果與人物表情都能夠符合真實的物理規(guī)律。

              二是富有想象力,可以虛構(gòu)場景以及想象超現(xiàn)實主義的畫面。

              三是具有多鏡頭語言,不再局限于固定鏡頭,能夠在遵循主體一致性的情況下實現(xiàn)遠景、近景、中景、特寫等不同鏡頭的動態(tài)切換,還可以實現(xiàn)長鏡頭、追焦等效果。

              四是有出色的視頻時長,能支持16秒長度的視頻生成,保持鏡頭和主體的連貫一致。

              五是能理解中國元素,可以更好地理解生成熊貓、龍等富有中國文化特色的形象。

              在生數(shù)科技發(fā)布的Vidu模型生成視頻樣片中,視頻的整體質(zhì)感可與Sora相媲美,并能創(chuàng)造出具有深度和復雜性的超現(xiàn)實主義內(nèi)容,比如“畫室里的一艘船正在海浪中駛向鏡頭”。

              Vidu背后的生數(shù)科技成立于2023年3月,公司創(chuàng)始團隊來自清華大學人工智能研究院,是全球范圍內(nèi)最早從事擴散概率模型研究的團隊之一。截至目前,生數(shù)科技已完成數(shù)億元融資,投資方包括啟明創(chuàng)投、螞蟻集團、BV百度風投、達泰資本、錦秋基金、卓源亞洲等知名機構(gòu)。

              目前全世界有3.05億視頻創(chuàng)作者,每天有200億次以上的視頻播放量,視頻需求非常大。在“視頻為王”的時代,文生視頻大模型Vidu的問世,有望推動視頻創(chuàng)作者生產(chǎn)力革命,大幅降低生產(chǎn)成本與創(chuàng)作門檻!

              編輯/姬妍
              本平臺發(fā)布/轉(zhuǎn)載的內(nèi)容僅用于信息分享,不代表我司對外的任何意見、建議或保證,我們倡導尊重與保護知識產(chǎn)權(quán),如發(fā)現(xiàn)本站文章存在版權(quán)問題,煩請將版權(quán)疑問、授權(quán)證明、版權(quán)證明、聯(lián)系方式等,發(fā)郵件至info@tonews.cn,我們將第一時間核實、處理。同時,歡迎各方媒體、機構(gòu)轉(zhuǎn)載和引用,但要嚴格注明來源:今日商訊。

              您可能感興趣的文章