韩日av在线免费观看_国产黑丝自拍|HD中文字幕在线播放,揪花蒂双性喷潮,黄色一级欧美,狠狠色狠狠干

全球首部AI法案達成初步協議,中美歐AI監管有何異同?

經過為期三天的“馬拉松式”會談,歐洲議會、歐盟成員國和歐盟委員會三方,于布魯塞爾當地時間12月8日晚就《人工智能法案》達成了初步協議。這一法案成為全球首部人工智能領域的全面監管法規。

人工智能引發生產力變革的同時,也引發了人們對快速發展的技術給就業、隱私、版權保護甚至人類生命帶來風險的擔憂,人工智能治理成為全球各國共同面臨的重要課題。

近年來,全球多個經濟體和國際組織積極探索AI監管之路,期冀構建開放、公正、有效的治理機制,加強人工智能的安全監管,尋求鼓勵技術創新和防治社會風險之間的平衡。其中,歐盟采取了全面且基于風險的方法;美國則采取了更加分散的方法,專注于人工智能的具體應用;而中國在實施包容審慎和分類分級的監管措施之外,也強調主流價值導向。

01 歐盟

歐洲走在人工智能法律監管的前列。2018年5月生效的歐盟《通用數據保護條例》(GDPR)對人工智能技術有直接影響:第 22 條禁止基于完全自動化的流程做出對個人產生法律后果或類似影響的決策,除非程序獲得用戶的明確同意或滿足其他要求。

在隨后的2019年,歐盟逐步開始布局人工智能監管領域,先后發布人工智能倫理準則并出臺《人工智能白皮書》。

在立法層面,早在2021年4月,歐盟就提出《人工智能法案》提案的談判授權草案,將嚴格禁止“對人類安全造成不可接受風險的人工智能系統”,包括有目的地操縱技術、利用人性弱點或根據行為、社會地位和個人特征等進行評價的系統等。

此后,人工智能技術繼續快速發展,尤其是以ChatGPT為代表的生成式人工智能技術“橫空出世”并迅速席卷全球,歐洲議會和歐盟理事會就草案進行了多輪修訂和討論。

2022年12月6日,歐盟理事會就該文件的總體方法(談判授權)達成協議,并于2023年6月中旬與歐洲議會進行了機構間談判,高票通過了《人工智能法案》談判授權草案,推動了該法案進入立法程序的最后階段。近期,歐洲議會、歐盟成員國和歐盟委員會舉行“三方談判”,經過長達三天的閉門協商,就《人工智能法案》達成協議。

該法案的主要思想是根據人工智能對社會造成危害的能力,遵循“基于風險”的方法來分級監管人工智能:風險越高,規則越嚴格。具體而言,AI風險被劃分為不可接受的風險、高風險、最小風險和特定透明度風險四大類,不同風險級別有對應不同的規則和義務。

“不可接受風險”等級的AI應用將被直接禁止,包括在特定情況下使用生物特征分類系統和人臉識別系統。據歐盟委員會解釋,在包括人臉識別在內的生物識別系統應用中,也有例外的情形:允許執法部門在嚴格限制條件下,對涉嫌或者已經被判決犯下重罪的人員進行非實時遠程生物識別。

“高風險”等級的AI包括傷害人的健康、安全和基本權利,或對自然有害的技術。而未被列入“不可接受風險”及“高風險”的技術,則須承擔最小的申報義務。

在此次談判中,對于如何監管類似ChatGPT的生成式人工智能模型成為一大焦點,備受業界關注。經過談判,法案對通用人工智能系統和基礎模型做出了規范:

基礎模型,即能夠勝任執行一系列獨特任務,如生成視頻、文本、圖像、橫向語言轉換、計算或生成計算機代碼的大型系統,在投放市場之前必須遵守特定的透明度義務,包括構建基礎模型的公司必須起草技術文件,遵守歐盟版權法,并報告用于訓練其模型的數據信息等。

而針對用大量數據訓練、具有遠高于平均水平的高級復雜性、能力和性能,可以沿著價值鏈傳播系統性風險的 “高影響力”基礎模型,則將被引入更嚴格的審查制度,包括必須評估和減輕這些風險、報告嚴重事件、落實網絡安全措施以及報告其能源效率。

此外,法案還對不同違規情形的罰款金額進行了規定:對于違反被禁止的人工智能應用程序,最高將面臨高達 3500 萬歐元或公司全球營業額的 7%的經濟處罰。

最終的法案最早要到2025 年才能完全生效。歐盟方面希望,作為全球首個此類立法提案,該法案可以像《通用數據保護條例》(GDPR)一樣為其他司法管轄區的人工智能監管制定全球標準,從而在世界舞臺上推廣歐洲的技術監管方式。

02 美國

當地時間10月30日,美國總統拜登簽署一項“具有里程碑意義的”行政命令——《安全、可靠及可信賴的人工智能》,推出白宮有關生成式人工智能的首套監管規定,被美國媒體稱為“有史以來政府為推進人工智能安全領域所采取的最重大行動”。

根據該項命令,美國多個政府機構需制定標準,以防止使用人工智能設計生物或核武器等威脅,并尋求“水印”等內容驗證的最佳方法,擬定先進的網絡安全計劃。具體而言,命令要求對人工智能產品進行檢測,并將測試結果報告給聯邦政府,保護美國用戶免受人工智能欺詐和欺騙。

此外,美國商務部還將給人工智能生成內容,比如通常被稱為“深偽技術”的AI生成音頻或圖像,制定更加嚴格的標準。

在此之前,美國政府中,主要是聯邦貿易委員會(FTC),正在逐漸加大對人工智能和人工智能產品的審查力度。FTC是美國聯邦政府中負責消費者權益保護的企業監管機構,可以對所有可能損害消費者利益的不公平和欺騙性商業行為,以及不公平競爭行為進行監管。

一個著名的案例是FTC對OpenAI進行的調查。2023年7月,FTC告知OpenAI,將調查ChatGPT是否通過發布虛假信息損害了人們的利益,以及OpenAI是否存在“不公平或欺騙性”的隱私和數據安全行為。FTC在信中還要求OpenAI分享內部資料,包括該公司如何保留用戶信息,以及該公司為應對其模型產生“虛假、誤導或詆毀”言論的風險而采取的措施。

此外,美國聯邦貿易委員會還為使用人工智能的公司發布了指南,強調透明度、可解釋性、公平性和強大的數據安全實踐的必要性。

值得一提的是,隨著生成式人工智能技術的出現和應用,知識產權和版權法迅速成為有關人工智能監管討論中最活躍的議題之一。2023 年8月,斯蒂芬·塞勒 (Stephen Thaler) 對美國版權局提起訴訟,因后者一再拒絕為由塞勒的機器算法創建的圖像頒發版權。美國法官裁定人工智能生成的藝術品不受版權保護。這一立場引發了法律學者之間持續的爭論,一些人認為有必要根據人工智能的進步修改版權法。

迄今為止,美國人工智能監管方法較為分散,聯邦層面的人工智能全面立法尚屬缺失,但各州制定了自己的人工智能法律。

如,伊利諾伊州制定了《伊利諾伊州人工智能視頻面試法》,要求雇主在評估視頻面試時告知申請人是否打算使用人工智能系統,確保候選人在面試前了解自己的權利并同意使用人工智能。該法律還概述了處理視頻采訪數據的協議,包括根據要求在30天內銷毀這些數據等。又如,紐約州制定了《紐約人工智能偏見法》,要求公司定期審核其招聘算法是否存在偏見。

03 中國

在與人工智能緊密相關的算法技術方面,我國也已發布多份法律法規。2021年8月,我國出臺《個人信息保護法》,規制“算法歧視”,明確否定“大數據殺熟”,提出若進行個性化推薦,應同時提供不針對其個人特征的選項,或便捷的拒絕方式等。同年12月,《互聯網信息服務算法推薦管理規定》出臺,明確了算法推薦服務提供者的信息服務規范和用戶權益保護要求,包括建立完善的人工干預和用戶自主選擇機制,不得利用算法實施影響網絡輿論、規避監督管理以及壟斷和不正當競爭行為等。

2023年7月13日,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部等七部門聯合公布了《生成式人工智能服務管理暫行辦法》,堅持發展與安全并重的原則,鼓勵創新與治理相結合,實施了包容審慎和分類分級的監管措施,旨在提高監管的高效性、精確性和敏捷性,“促進生成式人工智能健康發展和規范應用”,并于2023年8月15日開始施行。

《辦法》要求,生成式人工智能服務提供者應當按照《互聯網信息服務深度合成管理規定》 對圖片、視頻等生成內容進行標識。此外,《辦法》指出,提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,應當按照國家有關規定開展安全評估,并履行算法備案和變更、注銷備案手續。其中相關服務者在申報評估和備案時,需要提供內部數據安全管理機構(負責人)設置情況、數據安全保護的管理和技術措施、數據安全監測及應急處置機制等安全相關文檔。

10月18日,國家網信辦發布《全球人工智能治理倡議》,具體措施包括推動建立風險等級測試評估體系、實施敏捷治理、分類分級管理以及快速有效響應。從AI分類分級監管的思路看,中國與歐盟之間有相當程度的默契。

?

相關鏈接:https://mp.weixin.qq.com/s/mAkq3S2-H151NYKR0kX_9g