隨著生成式人工智能技術的快速發展,越來越多創作者採用AI工具在創意無限的數位領域揮灑自如。然而,在這場技術革新的潮流中,Google也意識到一項不可忽視的挑戰:AI技術的高度仿真性質可能會讓真實與虛構界線變得模糊不清。為了解決這一問題,Google近期宣布,在YouTube上發布含AI製作元素的影片,在特定情況下必須增添AI標籤並向觀眾公開揭示。

    YouTube官方部落格透露,早前便要求創作者在使用AI輔助創作時,應於影片開頭或簡介中明確告知。此舉是為了維持透明度,並讓用戶能夠清楚識別出AI技術的參與程度,並進一步說明,在某些明顯違背現實或動畫表現形式的影片內容中,AI的應用不會造成觀眾的混淆,因此不強制要求加註標籤。這些情況包括幻想動畫、AI用於顏色校正與濾鏡、背景模糊特效、或者視覺增強功能。

    然而,為了維護內容真實性和觀眾辨識權益,YouTube提出三種必須標記AI製作的情境:一是使用逼真的人物肖像;二是創建或修飾內容,像是模擬他人臉孔或合成人聲等;三是對真實事件或地點作出干擾性變更,如製造非實際存在的火災場景或虛擬的災害鏡頭。

    YouTube的官方態度十分明確:若創作者未主動透露,平台將可能介入並對內容加註標籤,特別是那些可能導致觀眾誤判的內容,官方將進行更嚴格地審查與監控。YouTube這一新動向不僅強化了內容創作的透明度,也保護了觀眾的知情權,讓虛擬與現實之間的界線更加清晰可辨。