人工智慧正在迅速重塑創作實踐,但其濫用也以同樣快的速度蔓延。未經公開的人工智慧輔助寫作、聲音和肖像克隆以及人工智慧生成的圖像屢屢在發表甚至獲獎後曝光,引發了備受矚目的爭議,並削弱了…人工智慧正在迅速重塑創作實踐,但其濫用也以同樣快的速度蔓延。未經公開的人工智慧輔助寫作、聲音和肖像克隆以及人工智慧生成的圖像屢屢在發表甚至獲獎後曝光,引發了備受矚目的爭議,並削弱了…

人工智慧在創意產業中的應用:濫用、爭議以及以應用為導向的監管趨勢

人工智慧正在迅速重塑創意實踐

人工智慧正在迅速重塑創作實踐,但其濫用也以同樣快的速度蔓延。未經公開的人工智慧輔助寫作、聲音和肖像克隆以及人工智慧生成的圖像屢屢在發表甚至獲獎後曝光,引發了備受矚目的爭議,並削弱了人們對文化機構的信任。

監管機構和平台正爭相應對,推出一系列資訊揭露要求、內容標籤提案、來源和水印標準以及有針對性的執法措施。然而,目前的框架仍然不夠完善、進展緩慢,而且常常不夠清晰。立法者如何在保護創作者和消費者的同時又不扼殺創新?現有的規則是否能夠跟上快速發展的人工智慧領域的步伐?這些問題正是當今科技與創意領域最迫切的辯論之一的核心所在。

近幾年最引人注目的人工智慧爭議之一是李瑠祐的《同情之塔東京》,該書榮獲2024年芥川獎。作者透露,小說中約5%的內容——主要是故事中聊天機器人的回應——是由人工智慧產生的。 ChatGPT這項發現引發了關於文學作品署名權和透明度的激烈辯論。評論界意見不一:有些人稱讚作品創新性地運用人工智慧探索語言和技術,而有些人則認為它挑戰了原創作者和文學誠信的傳統規範。主流媒體的報導著重強調了該書的主題——正義、同理心以及人工智慧的社會影響——以及在獲獎作品中融入生成模型所引發的程序性問題,促使人們呼籲制定更清晰的資訊揭露標準並重新審視評獎標準。此案已成為關於創作自主權、版權以及人工智慧在藝術領域應用倫理界限等更廣泛討論的里程碑,對出版商、獎項評選委員會和作者署名規範都產生了深遠的影響。

另一起備受矚目的事件發生在莉娜麥克唐納的《黑暗空洞學院:第二年》。讀者在第三章中意外發現了人工智慧提示和編輯註釋。這一意外洩漏暴露了作者使用人工智慧工具模仿另一位作家的寫作風格,立即引發了強烈反彈和廣泛關注。這事件凸顯了目前出版流程的局限性,以及製定人工智慧輔助寫作明確規範的必要性。它加劇了人們對透明度的呼籲,引發了關於編輯監督和品質控制的討論,並推動了關於商業小說中署名權、風格模仿和智慧財產權風險等更廣泛的辯論。

在視覺藝術領域,德國攝影師鮑里斯·埃爾達格森(Boris Eldagsen)近日引發爭議,他提交給索尼世界攝影獎的一幅作品被證實完全由人工智慧生成。這幅作品最初贏得了創意公開組的獎項,引發了關於人工智慧生成內容與傳統攝影之間界限的討論。最終,埃爾達格森拒絕領獎,而評論家和業內人士則質疑比賽應該如何對待人工智慧輔助或人工智慧生成的作品。

音樂產業也面臨類似的挑戰。英國電子舞曲組合Haven的歌曲《I Run》在2025年引發了一場備受矚目的AI爭議。起因是歌曲的主唱部分被揭露使用了合成語音技術,其聲音酷似真人歌手。各大串流媒體平台以侵犯版權和冒充他人為由下架了這首歌,引發了廣泛的譴責,再次呼籲在AI模仿真人表演時必須獲得明確許可並註明出處。這也加速了關於串流媒體服務、版權所有者和監管機構應如何管理AI輔助音樂的政策和法律辯論,以保護藝術家權益、維護版權並保障人們對創作署名的信任。

監管機構應對人工智慧危害:歐盟、美國、英國和義大利推出基於風險的監管框架 

人工智慧使用帶來的危害問題——包括創意人員將人工智慧生成的作品冒充為人類創作的作品——已成為一個迫切的問題,新興的監管框架也開始著手解決這個問題。

歐盟的《人工智慧法案》建立了一個基於風險的法律框架,該框架於2024年生效,分階段實施,直至2026-2027年。該法案要求生成式人工智慧系統具備透明度,包括在特定情況下對人工智慧產生的內容進行標註,對高風險應用進行風險評估和治理,並授權歐盟人工智慧辦公室和各國監管機構強制執行該法案。這些條款直接針對未公開的人工智慧生成媒體和不透明的模型訓練等挑戰。

各國立法機構在某些領域也迅速採取行動。例如,義大利推進了一項全面的國家人工智慧法,該法將於2025年生效,對諸如深度偽造犯罪等有害用途施加更嚴厲的處罰,並明確規定了透明度和人工監督的要求——這表明地方立法如何能夠補充歐盟層面的規則。歐盟委員會同時也在製定不具約束力的文書和行業行為準則,特別是針對通用人工智慧,但這些文件的推廣實施遭遇了延誤和行業阻力,這反映出為快速發展的技術制定及時、實用的規則的難度。

英國採取了「鼓勵創新」的監管方式,結合了政府白皮書、英國通訊管理局(Ofcom)和資訊專員辦公室(ICO)等監管機構發布的行業特定指南,以及強調安全、透明、公平和問責的原則性監督。英國當局並未強行推行歐盟式的單一準則,而是專注於提供指導並逐步提升監督能力。

在美國,政策制定者奉行以部門為單位、機構為主導的戰略,該戰略以2023年10月頒布的第14110號行政命令為核心,協調聯邦政府在安全、可靠和值得信賴的人工智慧領域的行動。這種方法強調風險管理、安全測試和有針對性的規則制定,並以《美國人工智慧行動計畫》等跨部門文件提供指導、標準制定和採購規則,而非單一的綜合法規。

馬丁·卡薩多倡導以應用為導向的人工智慧監管,以保護創意人才而不扼殺創新。

對於創意人士和平台而言,其實際意義顯而易見。監管機構正在推動更嚴格的資訊揭露要求,包括對人工智慧生成的內容進行清晰標註、對聲音和肖像克隆制定許可規則、為生成的媒體內容設定來源和水印標準,以及更嚴格的版權和衍生品使用法規。這些措施旨在防止冒名頂替,保護表演者和作者的權益,並提高託管潛在誤導性內容的平台的問責制——本質上是在落實安德森·霍洛維茨基金普通合夥人馬丁·卡薩多在a16z播客節目中提出的“以使用為中心”的監管方法。

他認為,政策應該優先考慮人工智慧的部署方式及其可能造成的具體危害,而不是試圖監管人工智慧模型本身的開發,因為人工智慧模型的開發發展迅速且難以控制。 defi既容易規避,也難以奏效。這位創投家警告說,過於寬泛、以發展為導向的規則可能會扼殺開放式研究,削弱創新。 

馬丁·卡薩多強調,利用人工智慧進行的非法或有害活動仍應依據現有法律予以追究,監管的首要任務是確保刑法、消費者保護法、民權法和反壟斷法得到有效執行。對於仍存在的漏洞,他主張制定基於實證研究、針對特定風險的新法律,而不是製定可能阻礙技術進步的寬泛且投機性的強制性規定。

專家認為,維持人工智慧發展的開放性非常重要,例如支援開源模型,以維持長期的創新和競爭力,同時確保監管措施保持精準、實用,並專注於現實世界的危害。



Source link

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。