【環(huán)球時報綜合報道】4月11日,中國國家互聯(lián)網信息辦公室發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》(簡稱《征求意見稿》),該辦法是國內生成式人工智能(AI)領域的首份監(jiān)管文件。同一天,美國也傳來考慮出臺措施監(jiān)管人工智能的消息。據(jù)《華爾街日報》11日報道,美國商務部周二就人工智能問責措施正式公開征求意見,包括有潛在風險的新人工智能模型在發(fā)布前是否應該通過認證程序。此外,英國、意大利、加拿大等國也先后宣布收緊人工智能的監(jiān)管政策。
關上“潘多拉魔盒”?
《征求意見稿》共包含21條舉措,強調了安全評估和算法備案的前提性和必要性。《征求意見稿》明確指出,辦法中所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內容的技術,并對生成式人工智能服務提出了多方面要求,包括“提供生成式人工智能產品或服務應當遵守法律法規(guī)的要求”“提供者應當對生成式人工智能產品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責”“要求用戶提供真實身份信息”等。
多位專家在12日接受《環(huán)球時報》記者采訪時都表示,《征求意見稿》的發(fā)布,主要是明確了生成式人工智能先規(guī)范再發(fā)展的總基調,目的是完善生成式人工智能的應用環(huán)境,為生成式AI在國內應用創(chuàng)造條件。
近段時間,生成式人工智能技術掀起新一輪生產力革新的科技浪潮,全球各大科技公司爭相搶灘布局。然而,人工智能熱度蔓延的同時,由其產生的概念亂象及安全問題也引發(fā)諸多擔憂。
美國法學教授特利4月3日在《今日美國》發(fā)文稱,自己收到一封郵件,被告知有人在測試生成式人工智能時發(fā)現(xiàn)他莫名出現(xiàn)在了該工具給出的性騷擾學生者名單中;路透社5日報道稱,澳大利亞赫本郡郡長胡德被生成式人工智能誤列為澳大利亞儲備銀行子公司一樁外國賄賂丑聞的“犯案者”……許多人表示,人工智能打開了“潘多拉魔盒”,呼吁政府出臺監(jiān)管措施。
除了中國、美國外,英國、意大利、加拿大、法國、西班牙等國家也都開始行動起來。據(jù)英國《金融時報》報道,英國政府于3月發(fā)布了第一份人工智能白皮書,概述了人工智能治理的5項原則。此外,據(jù)路透社報道,3月底,意大利政府宣布禁止使用一款人工智能聊天機器人,并限制相關公司處理意大利用戶信息數(shù)據(jù),同時對其隱私安全問題立案調查。加拿大廣播公司4月4日報道稱,加拿大聯(lián)邦隱私監(jiān)管機構宣布,已對美國人工智能研究公司OpenAI展開調查,因該公司涉嫌“未經同意收集、使用和披露個人信息”。
與多國紛紛出手加強AI監(jiān)管形成對比的是,印度暫時沒有計劃監(jiān)管人工智能的使用和發(fā)展。據(jù)美國??怂剐侣劸W報道,印度電子和信息技術部上周發(fā)布一份聲明,詳細闡述了印度對人工智能發(fā)展及安全方面的立場,表示相信人工智能會拉動印度商業(yè)的增長,政府正在政策和基礎設施方面采取一切必要措施,以發(fā)展該國的人工智能行業(yè)。
科技巨頭也在商討AI開發(fā)使用標準
通常情況下,政府收緊監(jiān)管意味著大型科技企業(yè)自由發(fā)展的空間和力量被遏制,會招致行業(yè)的反對,然而這一次,許多科技公司卻發(fā)聲呼吁政府制定監(jiān)管規(guī)定,甚至在一些企業(yè)內部,限制使用人工智能的規(guī)定已經實施。
據(jù)韓國《國民日報》報道,包括三星、SK海力士在內的多家韓企正在采取限制使用相關人工智能工具的措施,嚴防員工泄密。LG電子公司也要求員工進行“人工智能及數(shù)據(jù)使用”方面的培訓。在日本,出于對信息泄露的擔憂,包括軟銀、日立、富士通和三井住友銀行在內的日本公司已開始限制在業(yè)務運營中使用交互式人工智能服務。
一些人工智能企業(yè)也主動尋求制定新的監(jiān)管規(guī)定。據(jù)《華爾街日報》11日報道,“我們認為,強大的人工智能系統(tǒng)應該接受嚴格的安全評估”,OpenAI在最近的一篇文章中表示:“需要監(jiān)管來確保安全評估得到采用,我們積極與各國政府接觸,探討可能采取的最佳監(jiān)管形式?!?/p>
美國福克斯新聞網報道稱,12日,微軟、谷歌、蘋果、英偉達等人工智能開發(fā)領域的頭部企業(yè)將商議制定AI技術開發(fā)使用標準,討論如何以最負責任的態(tài)度繼續(xù)開發(fā)人工智能。
“要在發(fā)展與安全之間找到平衡點”
其實,人工智能監(jiān)管的“火苗”并不是最近才被點燃。早在2021年4月,歐盟委員會就提出了《人工智能法案》條例草案,這被視為歐盟在人工智能以及更廣泛的歐盟數(shù)字戰(zhàn)略領域的里程碑事件。只不過提案的推進并沒有想象中順利,歐洲議會議員們尚未就提案基本原則達成一致。
美國國家標準與技術研究院也于今年1月發(fā)布了《人工智能風險管理框架》(AI RMF)1.0版,旨在指導機構組織在開發(fā)和部署人工智能系統(tǒng)時降低安全風險,避免產生偏見和其他負面后果,提高人工智能可信度。
清華大學新聞與傳播學院教授、清華大學元宇宙文化實驗室主任沈陽12日接受《環(huán)球時報》記者采訪時表示,各國都高度重視人工智能的監(jiān)管問題,因為人工智能技術存在著較大的不確定性和不可控性。目前有必要將人工智能的行業(yè)發(fā)展引導到安全的、正確的道路上,防止重大黑天鵝事件出現(xiàn),造成不可挽回的損失。
對于未來人工智能方面的監(jiān)管前景,浙江大學國際聯(lián)合商學院數(shù)字經濟與金融創(chuàng)新研究中心聯(lián)席主任、研究員盤和林告訴《環(huán)球時報》記者,在立法方面,中國目前走在前列,《征求意見稿》內容還將在實踐過程中繼續(xù)完善。他同時也表示,未來監(jiān)管要在生成式AI發(fā)展和安全有序推進之間找到平衡點,一是要給予人工智能生成內容適當包容;二是繼續(xù)細化規(guī)則,這會讓企業(yè)行為的確定性大大增強,更有利于生成式AI產業(yè)的發(fā)展。
相關稿件