8月11日,英偉達在一場行業峰會中表示,之前4月初GTC2021期間出現在視頻中的CEO黃仁勛,并非真人,而是渲染出的CG。通過英偉達發布的視頻可以看出,老黃只是參與了掃描、建模、配音的步驟,就連動作都是由另一位演員通過動作捕捉的方式呈現的。除此之外,視頻中的一切元素,包括背景的廚房、各種小物件,甚至老黃標志性的皮衣都是渲染出來的,和當時老黃的演講主題相同,英偉達實實在在地開了一場“元宇宙”發布會。
消息一出可謂舉世嘩然。由于30系顯卡飽受挖礦導致的漲價和缺貨爭議,在發布會當時就有不少人在評論區開玩笑表示“老黃的皮夾克開了光追”“空氣發布會”,想不到英偉達的圖像技術竟然真的可以實現以假亂真的效果了。
當然,有網友仔細觀看視頻后,發現視頻中老黃的穿著、動作以及視頻整體的清晰度并不一樣,英偉達很可能是將實拍視頻和CG半真半假摻在一起,但不管怎么說,把技術做到這個程度,著實是有點科幻片的感覺了。
而這樣科幻的技術路線,在現實層面中難免會引起爭議,甚至是倫理和社會問題。
過去,圖片可以通過PS等方式“移花接木”,但畢竟是兩張圖的拼接,難免會有不自然的現象,至于視頻,可以認為是絕對的真實,所以“有圖有真相”依然是現在互聯網上的行事準則之一。
但隨著消費者手中的設備算力逐漸強大,加上深度學習、人工智能等技術的進步,DeepFake等利用AI進行面部識別并“換臉”的應用開始出現,視頻也不能作為絕對的真相看待了。任何一個人只要擁有了設備和算法,就能夠制作出AI換臉的視頻,特別是對于明星或者公眾人物而言,很可能造成名譽權的被侵犯。正因如此,許多網站也屏蔽了AI換臉軟件的下載以及視頻的傳播,但互聯網上的灰色地帶會永遠存在。
而英偉達的視頻則向我們展示了,如果獲得了某個人物的精確建模,現在的計算機可以做到怎樣的地步。誠然,作為個人或許沒有機會實現從掃描、建模到渲染輸出的全套流程,但如果是以大企業、抑或是國家的人力物力財力而言,配合上現在抖音快手上已經比較成熟的AI聲音合成技術,制作一個足以以假亂真的視頻并非難事。就算圖像、聲音的細節并不完美,只需要降低輸出視頻的碼率,那么這些瑕疵也會被計算機所掩蓋。
屆時,又該怎樣去分辨視頻的真假呢?
責任編輯:Rex_07