蓋世汽車訊 生成式人工智能很快就能幫助自動(dòng)駕駛汽車獲得感知能力。人工智能(AI)軟件供應(yīng)商Helm.ai推出其下一代生成式人工智能模型VidGen-2,用于生成逼真的駕駛視頻序列。
圖片來(lái)源:Helm.ai
VidGen-2的分辨率是其前身VidGen-1的兩倍,每秒30幀的真實(shí)感更強(qiáng),并且支持多攝像頭,每個(gè)攝像頭的分辨率是其兩倍。Helm.ai聲稱為汽車制造商提供了一種可擴(kuò)展且經(jīng)濟(jì)高效的自動(dòng)駕駛開發(fā)和驗(yàn)證解決方案。
VidGen-2提高了視頻分辨率
VidGen-2使用英偉達(dá)H100 Tensor Core GPU對(duì)數(shù)千小時(shí)的多樣化駕駛鏡頭進(jìn)行訓(xùn)練,使用Helm.ai的生成深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu)和“深度教學(xué)”這種無(wú)監(jiān)督訓(xùn)練方法。它以696 x 696的分辨率生成高度逼真的視頻序列,是VidGen-1的兩倍,幀速率范圍為5到30 fps。
該模型還以30 fps的速度增強(qiáng)了視頻質(zhì)量,從而提供更流暢、更詳細(xì)的仿真。VidGen-2無(wú)需輸入提示即可生成視頻,或者只需輸入單個(gè)圖像或視頻即可生成視頻。
VidGen-2還支持多攝像頭視圖,可從三臺(tái)攝像頭生成每臺(tái)640 x 384(VGA)分辨率的素材。該公司表示,該模型可確保所有攝像頭視角的自一致性,從而為各種傳感器配置提供準(zhǔn)確的仿真。
Helm.ai稱新模型可實(shí)現(xiàn)更好的AI駕駛
VidGen-2可生成跨多個(gè)地理位置、攝像頭類型和車輛視角的駕駛場(chǎng)景視頻。該模型不僅可以產(chǎn)生高度逼真的外觀和時(shí)間一致的物體運(yùn)動(dòng),還可以學(xué)習(xí)和重現(xiàn)類似人類的駕駛行為,根據(jù)交通規(guī)則模擬自車和周圍主體的運(yùn)動(dòng)。
它創(chuàng)建了各種場(chǎng)景,包括高速公路和城市駕駛、多種車輛類型、行人、騎自行車者、十字路口、轉(zhuǎn)彎、天氣條件和照明變化。在多攝像頭模式下,場(chǎng)景在所有視角中一致生成。
Helm.ai方面表示:“VidGen-2能夠快速生成資產(chǎn),并在模擬中為代理注入復(fù)雜的真實(shí)行為,為汽車制造商帶來(lái)了顯著的可擴(kuò)展性優(yōu)勢(shì),優(yōu)于傳統(tǒng)的非AI模擬器?!痹摴韭暦Q,除了減少開發(fā)時(shí)間和成本外,其模型還縮小了“模擬到現(xiàn)實(shí)”的差距,提供了一種現(xiàn)實(shí)而有效的方法來(lái)擴(kuò)大基于模擬的訓(xùn)練和驗(yàn)證的范圍。
“VidGen-2的最新增強(qiáng)功能旨在滿足汽車制造商開發(fā)自動(dòng)駕駛技術(shù)的復(fù)雜需求,”Helm.ai聯(lián)合創(chuàng)始人兼首席執(zhí)行官Vladislav Voroninski表示。
“這些進(jìn)步使我們能夠生成高度逼真的駕駛場(chǎng)景,同時(shí)確保與各種汽車傳感器堆棧兼容,”Vladislav Voroninski補(bǔ)充道?!癡idGen-2的改進(jìn)還將支持我們其他基礎(chǔ)模型的進(jìn)步,加速未來(lái)自動(dòng)駕駛和機(jī)器人自動(dòng)化的發(fā)展?!?
來(lái)源:第一電動(dòng)網(wǎng)
作者:蓋世汽車
本文地址:http://www.vlxuusu.cn/news/shichang/249312
以上內(nèi)容轉(zhuǎn)載自蓋世汽車,目的在于傳播更多信息,如有侵僅請(qǐng)聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動(dòng)網(wǎng)(www.vlxuusu.cn)立場(chǎng)。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請(qǐng)聯(lián)系admin#d1ev.com(#替換成@)刪除。