20260202蕭承訓/台北報導

運算黑盒子 法律跟在後面跑

image
AI運算對使用者是一部深不可測的「黑盒子」,須面對個資保護、道德倫理、責任歸屬、數位包容等風險。(美聯社)

 生成式AI技術不斷提升,成為各行各業運用的工具,連司法院都正研究利用AI協助法官分析卷證及法律見解,不過,包括新聞界和公務機關等都因此衍生爭議和問題。立法院法制局針對相關法制研析並參酌各國法規,建議行政部門應建立風險評估及管理機制、妥善保護個人隱私權等,並應訂定新聞媒體生成式AI使用規範指引 明確定義資料可用及禁用範圍。

 法制局指出,生成式AI技術讓人類生活有了不同層次改變,公務機關導入生成式AI有助於提高績效評估與營運管理和服務品質,並能強化公共政策的決策,但也須面對個資保護、道德倫理、責任歸屬、數位包容等風險。

 目前數發部及行政院訂有相關使用規範,但不可諱言,AI運算對使用者是一部深不可測的「黑盒子」。若系統開發過程中納入了個人偏見,運算結果便會隨之偏差。之前司法院擬用AI技術協助法官寫判決,但因爭議而作罷。法制局強調,AI仍應在人類的監督下使用,才不會出現不符倫理情形 。

 此外,對於講求效率、即時更新的新聞媒體,已開始利用AI協作,也有AI主播及播報新聞,因此衍生隱私、著作權爭議、假訊息增加、平台不當推薦機制及強化偏見歧視等爭議。

 法制局認為,生成式人工智慧應用在新聞產製過程中,可能會出現不可預測的有害內容,以及系統經過訓練後,大量出現對流量有幫助但不可信的內容,同時在人類缺乏監督的狀況下,產出不正確的內容。

 報告指出,生成式內容充滿隨機性,少數版本偏離正確軌道,更可能因為對環境不適應,在未經檢驗下出現錯誤內容,因此,有必要訂出新聞媒體生成式AI使用規範指引、明確定義資料可用及禁用範圍,以防範因AI工具造成對個資的惡意使用及隱私權的侵害。

 台北地檢署檢察官陳伯青認為,目前就此輔助創作是否該揭露或如何揭露,沒有法律標準,尚待各國立法,建議使用者先到原始網站比對資料後再引用,也有待法院判決或修法補強。