中華民國電視學會 第二十八屆第七次新聞自律委員會 會議紀錄
時間:115年03月25日(週三) 下午3:00
地點:中國電視公司新聞部(台北市內湖區民權東路六段25號5樓)
主席:彭主任委員愛佳
出席委員:陳諮詢委員清河、黃諮詢委員旭田、柯諮詢委員舜智
台視新聞部採訪中心-劉主任孟竹
華視新聞台-凌編審照雄
民視新聞傳播群-吳法務雨珊
公視新聞部-屠經理乃瑋
中視新聞部-張副總監騄遠
記錄:陳玫君
中華民國電視學會第二十八屆第七次新聞自律委員會會議紀錄
討論提案
案由:鑒於生成式AI技術日益普及,媒體使用AI生成示意圖之頻率日趨頻繁,為因應AI生成影像於新聞報導中之應用,是否於新聞自律委員會的自律規範增訂相關準則,提請討論。
主席:今日會議討論AI在新聞製播中的應用,是否應於新聞自律規範增訂相關準則。目前新聞自律規範依政治、社會、醫藥等項目區分,但AI應用跨越各類新聞領域、涉及各類新聞,因此是否考慮增修第六點,或獨立增訂為第十一點,待委員討論後決定。至於內容,建議以宣示性、原則性為主,例如:生成內容必須以事實為依據、確保正確性、全程清楚標示,並注意隱私與肖像權。提請各委員進一步討論。
吳法務雨珊:新聞製播不論是否使用AI技術,皆屬於新聞自律之一環,都在民視新聞自律規範的範疇內,民視目前並無另外再制訂AI規範。由於AI的發展難以預測,因此建議列出大原則即可(不要自設框架),列在第六點或新增一點皆可。因為電視播出都要遵守廣電法及衛廣法,使用AI亦要遵守廣電法及衛廣法。
屠經理乃瑋:在不改變既有排序的前提下,第六點應強調:AI技術若用於新聞製播,必須以事實為依據,並在生成內容的全程中清楚標示。除此之外,還需注意隱私權與肖像權等問題。舉例來說,若AI生成一名知名人物的影像,讓觀眾一眼就能辨識出該人物,這可能涉及肖像權爭議。因此,最重要的原則就是:所有AI生成的內容必須全程標示清楚。
劉主任孟竹:台視倫理委員會近日召開會議,討論AI生成於新聞製播中之應用。會中委員以替代役男在台64線丟包的新聞為例,指出如,第一時間司機曾謊稱該男子在車上踹背或醉酒,若用AI模擬並還原這些並非事實的情節,容易造成錯誤認知,對被害者或加害者都不公平,甚至可能影響司法判決的觀感。
委員強調,AI生成的畫面不能過度擬真。即使有標示「AI生成」,若與真實畫面交錯播出,觀眾仍可能誤認為真實,難以分辨真偽。因此,AI生成影像不宜過度擬真;尤其涉及暴力或犯罪行為,更不宜用AI還原,避免對青少年造成不良影響(如模仿行為)。同樣地,虐童、死亡或受傷等血腥細節,也不應透過AI生成補足,因為過度細節化反而不妥。
以上是台視倫理委員會的會議結論。若未來新聞製播使用AI生成影像,將依此方向規範。最後,委員特別提醒,下半年有選舉,AI相關內容可能更多,必須格外謹慎。
主席∶以台視所提的大學生新聞案件為例,大部分媒體當時報導的事實基礎,乃依據檢警透過新聞稿等方式公布的調查結果,由於當事駕駛隱瞞部分案情,警方在多次勘驗行器後,也滾動式調整說法,有部分學者對該案件中,媒體查證過程與警方認定事實至今恐怕都未清楚了解,因此也對媒體當時報導是否有事實依據產生誤解。本台認同對於AI使用,該有一定規範,但任何新聞不論是否引用AI畫面,查證本就是報導之基本義務,當政府公開資訊或公權力單位所公告內容有滾動修正時,實不必以事後之姿論斷媒體報導偏誤。
屠經理乃瑋:什麼是事實?什麼是真相?在不同階段會有不同的事實被發現,而最終的真相則是由這些事實累積而成。
如果要以事實為依據,就應該根據當下的事實謹慎處理,而不是把它直接當作最後的真相。無論是否由 AI 生成,都應如此。
凌編審照雄:新聞自律規範第六點的核心原則在於「戲劇化處理」,而針對AI的應用,或許可以增列為第七點,甚至獨立列出,以便區隔。以下提供華視在AI運用上的一些實務規範,供大家參考:目前華視主要在兩個面向使用AI:字幕生成與AI生成鏡面或CG。
字幕生成:由於華視有許多新聞性節目,會使用AI輔助口白製作,再由人工進行檢核,確保正確性。
鏡面或CG生成:在這部分,華視遵守兩項規範:
1、三不原則:不做動態生成;不模擬案情;不重新演繹法庭實錄。
2、生成方式:使用實際照片讓AI生成影像,而非透過指令直接生成。這樣的做法較有所本,也能避免過度擬真造成誤導。
以上是華視目前在AI應用上的規範。
屠經理:公視動畫AI生成影像需源自AI公司自有資料庫,而非透過網路上有版權畫面生成影像,如雪崩畫面,須從AI公司資料庫中具有合法版權圖片生成,而非使用網路有版權的圖片生成,因為事涉智慧財產權。若由個人行為自行AI生成而導致侵權,則由該個人負責,透過此管理機制確保AI生成無侵權問題。
張副總監騄遠:正如黃仁勳所言,AI是一項輔助工具,如何使用端視於人之應用,因此新聞內容仍須由人負責。新聞製播的素材、工具與影像(如打殺、凌虐、抽菸等),本就應遵守新聞倫理與相關法令,AI應用於新聞製播時亦不例外,必須一併遵循。至於資料是否正確、是否符合邏輯,仍需人工檢視與查證,必要時進行修改(例如影像過於擬真而超出新聞規範)。
未來AI的發展難以預測,若因此對新聞製播設下過多自 我限制,恐怕並無必要。只要不違反新聞規範或相關法令,就應清楚標示該影像由AI生成,或註明素材來源(如警方提供)。
黃諮詢委員旭田:AI的優勢在於能快速整合龐大的資訊,但它無法逐一交代每句話的來源,只能呈現「大多數人這樣說」的結論。再者,AI常會依使用者的提問方式生成使用者想知道的資訊,卻可能忽略其他不同觀點。當AI大量蒐集資料時,也會牽涉著作權爭議,核心在於資料來源是否經授權使用,以及後續(授權金/權益金,如果有的話)分配問題。未來或許可比照音樂著作人協會的模式,建立合理的分配機制。
AI的另一個功能是分析,它能將既有資料重新組織,形成新的內容,這正是人工智慧的概念。但在新聞製播上,必須清楚標示來源,例如AI整合外電、媒體與現場採訪後生成的結果。目前媒體多將AI應用於影像生成,用來補足原本無法取得的畫面(如涉及隱私),同樣需要公開揭露。
雖然AI在繪圖與影片製作方面能力強大,但新聞製播仍須遵守既有規範,例如避免色情、暴力等不當內容。最重要的是「揭露」:使用者下指令生成影像後,必須審視是否過於擬真、是否涉及血腥暴力等,並承擔相應責任。AI生成的內容也必須以當下可理解的事實為基礎,不得歪曲或誤導。只是目前在媒體高度監管的情況下,AI的影響力仍有限,但隨著科技發展,這議題正方興未艾。
柯諮詢委員舜智:替代役男台64線丟包案中,三立新聞也遭到申訴。其實三立新聞在2025年3月31日就制定了AI使用的指引與倫理規範,但即使規範再完善,仍難以滿足所有標準。在該案中,三立與中視的文字稿並無問題,爭議主要出現在AI生成影像的落差。例如「爭執」場景,因指令不同,AI生成的畫面也不同,這讓認識當事人的家屬或親友在看到影像時可能產生強烈感受,觀眾也可能因此影響對事件的判斷。這凸顯了AI影像生成的「後遺症」,即風險問題。
另一個核心是觀眾對新聞的信任。AI生成的新聞影像,能否讓觀眾真正產生信賴感?目前雖然有揭露「AI示意畫面」或「AI生成」的標示,但似乎仍不足以建立信任。替代役男台64線丟包事件後回顧BBC的做法,發現BBC在影像處理上更保守、更謹慎,因為過度擬真的模擬影像反而讓人難以分辨真偽,這是極大的問題。
此外,東森財經台上週也制定了AI使用準則,主要用於輔助性工作,如資料整理、圖卡生成、字幕轉譯、外文翻譯,並特別將影像生成獨立規範。至於本會的新聞自律規範,建議採取指示性、原則性的方式列出,並為彰顯對此議題的重視,最好能獨立成一要點。
陳諮詢委員清河:需要專業人員把關及將新聞來源註明清楚為重。
主席:經各委員討論後,本會新聞自律規範第六點修訂如下:「新聞與一般節目不同,不宜以戲劇演出之方式模擬新聞事件;若應用AI製播新聞時,應以事實為依據,並全程揭露標示,且需專業人員把關,並遵守隱私權、智慧財產權等相關法令規範。」
貳、臨時動議
參、散會
【會後補註】 經法務人員建議,將其中「事實」調整為「經合理查證之內容」或「具事實基礎之資訊」。經徵詢各委員意見後,本會自律規範第六點文字修正為:『新聞與一般節目不同,不宜以戲劇演出方式模擬新聞事件;若應用 AI 製播新聞內容,應以經合理查證之資訊為基礎,全程揭露標示,且需專業人員把關,並遵守隱私權、智慧財產權等相關法令規範。』