諮詢小組表示,歐洲應禁止將人工智能用於大規模監控和社會信用評分

諮詢小組表示,歐洲應禁止將人工智能用於大規模監控和社會信用評分

一個獨立專家組的任務是建議歐盟委員會告知其對人工智能的監管反應——以支持歐盟立法者確保人工智能發展“以人為中心”的既定目標——已經公佈了其政策和投資建議。

這遵循了早先的“值得信賴的人工智能”道德準則,該準則由人工智能高級專家組 (HLEG) 在 4 月份提出,當時委員會還呼籲參與者測試規則草案。

AI HLEG 的完整政策建議包含一份非常詳細的 50 頁文件,可從此網頁下載。 該小組成立於 2018 年 6 月,由行業人工智能專家、民間社會代表、政治顧問和政策專家、學者和法律專家組成。

該文件包括對使用人工智能對歐盟公民進行大規模監控和評分的警告,例如中國的社會信用體系,該組織呼籲徹底禁止“基於人工智能的個人大規模評分”。 它還敦促各國政府承諾不出於國家安全目的對人口進行全面監視。 (因此,鑑於英國在 2016 年底通過成為法律的搖擺不定的國家監督權力,英國投票離開歐盟也許是一樣的。)

HLEG 寫道:“雖然政府可能很想通過建立一個基於人工智能係統的普遍監控系統來‘保護社會’,但如果達到極端水平,這將是極其危險的。” “政府應承諾不對個人進行大規模監視,僅部署和採購可信賴的人工智能係統,旨在尊重法律和基本權利,符合道德原則和社會技術穩健。”

該組織還呼籲“反擊”對個人和社會的商業監視——建議歐盟對濫用人工智能技術的效力和潛力的反應應包括確保在線人員跟踪是“嚴格遵守諸如隱私之類的基本權利”,包括(該小組指定)涉及“免費”服務時(儘管需要考慮商業模式如何受到影響)。

上週,英國的數據保護監管機構對在線行為廣告行業進行了更具體的打擊——警告 adtech 大規模處理網絡用戶個人數據以用於定向廣告的行為不符合歐盟隱私標準。 該行業被告知其侵犯權利的做法必須改變,即使信息專員辦公室還沒有準備下錘子。 但改革警告很明確。

隨著歐盟政策制定者致力於為人工智能製定尊重權利的監管框架,以尋求引導該地區未來十年+的尖端技術發展,對數字實踐和商業模式的更廣泛關注和審查似乎將推動清理有問題的數字實踐,這些實踐能夠在沒有或非常輕的觸摸監管下激增,在此之前。

HLEG 還呼籲支持開發保護個人數據的機制,並支持個人“控制他們的數據並為其賦予權力”——他們認為這將解決“可信賴人工智能要求的某些方面”。

“應該開發工具來提供 GDPR 的技術實施,並通過設計技術方法來開發隱私保護/隱私,以解釋人工智能係統(例如聯合機器學習)的個人數據處理中的標準、因果關係,”他們寫道。

“支持匿名化和加密技術的技術發展,並製定基於個人數據控制的安全數據交換標準。 促進公眾在個人數據管理方面的教育,包括個人在基於人工智能個人數據的決策過程中的意識和授權。 創建技術解決方案,為個人提供信息並控制其數據的使用方式,例如用於研究、關於跨歐洲邊界的同意管理和透明度,以及由此產生的任何改進和成果,並製定安全標準基於個人數據控制的數據交換。”

HLEG 報告中包含的許多其他政策建議是,與人類交互的人工智能係統應包括強制性的自我識別。 這意味著沒有鬼鬼祟祟的 Google Duplex 人類語音模仿機器人。 在這種情況下,機器人必須提前自我介紹——從而給人類呼叫者一個脫離接觸的機會。

HLEG 還建議建立一個“為兒童提供更好、更安全的人工智能的歐洲戰略”。 對猖獗的擔憂和反感多個歐盟成員國已經提出了兒童數據化,包括通過商業跟踪他們對在線服務的使用。

該組織寫道:“應通過為歐洲兒童提供一個可以成長和學習的童年來確保子孫後代的完整性和能動性,他們可以在不受未經請求的監控、分析和興趣投資的習慣化和操縱的情況下成長和學習。” “應確保兒童有一個自由和不受監控的發展空間,並且在進入成年期後,應為與他們相關的任何公共或私人數據存儲提供‘乾淨的石板’。 同樣,兒童的正規教育應該不受商業和其他利益的影響。”

HLEG 建議,成員國和歐盟委員會還應設法持續“分析、衡量和評分人工智能的社會影響”——密切關注正面和負面影響,以便調整政策以考慮不斷變化的影響。

“可以考慮使用各種指標來衡量和評分人工智能的社會影響,例如聯合國可持續發展目標和歐洲社會支柱的社會記分牌指標。 歐盟統計局的歐盟統計計劃以及其他相關歐盟機構應納入該機制,以確保生成的信息是可信的、高質量和可驗證的、可持續的和持續可用的,”它建議。 “基於人工智能的解決方案可以幫助監測和衡量其社會影響。”

該報告還對委員會加強對人工智能的投資提出了重要要求——特別呼籲為初創企業和中小企業提供更多幫助,以獲取資金和建議,包括通過 InvestEU 計劃。

另一個建議是創建一個 歐盟範圍內的人工智能企業孵化器網絡,連接學術界和工業界。 “這可以與創建歐盟範圍內的開放創新實驗室相結合,該實驗室可以進一步建立在數字創新中心網絡的結構上,”它繼續說道。

也有人呼籲鼓勵公共部門採用人工智能,例如 f通過將公共數據轉換為數字格式來促進數字化; 提供 對政府機構進行數據素養教育; C為“高質量人工智能”檢索歐洲大型註釋公共非個人數據庫; 和資金 促進人工智能工具的開發,以幫助發現政府決策中的偏見和不當偏見。

報告的另一部分涵蓋了嘗試支持歐洲人工智能研究的建議——例如加強和創建額外的卓越中心,以解決戰略研究主題並成為“特定人工智能主題的歐洲級乘數”。

對人工智能基礎設施的投資,例如 分佈式集群和邊緣計算、大內存和快速網絡,以及 還敦促建立測試設施和沙箱網絡; 和s一起“通過通用註釋和標準化”支持歐盟範圍內的數據存儲庫——以防止數據孤島,以及醫療保健、汽車和農業食品等特定行業的可信數據空間。

HLEG 加速採用 AI 的舉措招致了一些批評,數字版權組織 Access Now 的歐洲政策經理 Fanny Hidvegi 寫道:“我們現在需要的不是歐洲所有部門更多地採用 AI,而是明確保障措施、紅線和執行機制,以確保在歐洲更廣泛地開發和部署的自動化決策系統和人工智能尊重人權。”

HLEG 報告中的其他想法包括開發和實施歐洲人工智能課程; 和米監控和限制自動致命武器的開發——包括網絡攻擊工具等技術,這些技術不是“實際武器”,但該組織指出“如果部署這些武器可能會產生致命後果。

HLEG 進一步建議歐盟政策制定者不要賦予人工智能係統或機器人法人資格,並寫道:“我們認為這從根本上不符合人類能動性、問責制和責任的原則,並構成重大的道德風險。”

該報告可在此處完整下載。

Leave a Reply

Your email address will not be published. Required fields are marked *