諮詢小組表示,歐洲應禁止人工智能進行大規模監控和社會信用評分

諮詢小組表示,歐洲應禁止人工智能進行大規模監控和社會信用評分

一個獨立專家組的任務是向歐盟委員會提供建議,以告知其對人工智能的監管反應——以支持歐盟立法者確保人工智能發展“以人為中心”的既定目標——已經發布了其政策和投資建議。

這遵循了早先的“可信賴人工智能”道德準則,該準則由人工智能高級專家組 (HLEG) 於 4 月份推出,當時委員會還呼籲參與者測試規則草案。

AI HLEG 的完整政策建議包括一份非常詳細的 50 頁文件 — 可從此網頁下載。 該小組成立於 2018 年 6 月,由行業 AI 專家、公民社會代表、政治顧問和政策專家、學者和法律專家組成。

該文件包括對使用人工智能進行大規模監控和對歐盟公民進行評分的警告,例如中國的社會信用體系,該組織呼籲徹底禁止“支持人工智能的大規模個人評分”。 它還敦促各國政府承諾不出於國家安全目的對人口進行全面監視。 (因此,鑑於英國在 2016 年底通過成為法律的國家監督權的搖擺不定,也許英國投票退出歐盟也一樣好。)

HLEG 寫道:“雖然政府通過建立基於人工智能係統的無處不在的監控系統來‘保護社會’可能會受到強烈誘惑,但如果達到極端水平,這將是極其危險的。” “政府應承諾不參與對個人的大規模監視,只部署和採購可信賴的人工智能係統,這些系統旨在尊重法律和基本權利,符合道德原則和社會技術穩健性。”

該組織還呼籲“反擊”對個人和社會的商業監視——暗示歐盟對濫用人工智能技術的效力和可能性的反應應包括確保在線人員跟踪是“嚴格遵守隱私等基本權利”,包括(該小組指定)涉及“免費”服務時(儘管需要考慮商業模式如何受到影響)。

上週,英國的數據保護監管機構對在線行為廣告行業發出了更具體的警告——警告說,adtech 大規模處理網絡用戶個人數據以定位廣告不符合歐盟隱私標準。 該行業被告知其侵犯權利的做法必須改變,即使信息專員辦公室還沒有準備好下錘。 但改革警告是明確的。

隨著歐盟政策制定者致力於為人工智能製定尊重權利的監管框架,尋求引導該地區未來十年以上的尖端技術發展,對數字實踐和商業模式的更廣泛關注和審查似乎將推動清理有問題的數字實踐,這些實踐在沒有或非常輕微的接觸監管下能夠激增,在此之前。

HLEG 還呼籲支持制定保護個人數據的機制,並支持個人“控制數據並為其賦權”——他們認為這將解決“可信賴 AI 要求的某些方面”。

他們寫道:“應該開發工具來提供 GDPR 的技術實施,並通過設計技術方法來解釋人工智能係統(例如聯合機器學習)個人數據處理中的標準和因果關係,從而開發隱私保護/隱私。”

“支持匿名化和加密技術的技術發展,並製定基於個人數據控制的安全數據交換標準。 促進公眾對個人數據管理的教育,包括個人對基於人工智能個人數據的決策過程的認識和賦權。 創建技術解決方案,為個人提供信息並控制其數據的使用方式,例如用於研究、跨歐洲邊界的同意管理和透明度,以及由此產生的任何改進和結果,並製定安全標準基於個人數據控制的數據交換。”

HLEG 報告中包含的許多政策建議中的其他政策建議是,與人類交互的人工智能係統應包括強制性的自我識別。 這意味著沒有狡猾的 Google Duplex 人類語音模仿機器人。 在這種情況下,機器人必須預先介紹自己——從而給人類呼叫者一個脫離的機會。

HLEG 還建議建立一個“歐洲兒童更好、更安全人工智能戰略”。 對猖獗的擔憂和不安多個歐盟成員國已經提出了對兒童的數據化,包括通過對他們使用在線服務的商業跟踪。

該組織寫道:“應該通過為歐洲兒童提供一個童年,讓他們在不受未經請求的監控、剖析和興趣投資的習慣化和操縱的影響下成長和學習,從而確保子孫後代的完整性和能動性。” “應確保兒童有一個自由且不受監控的發展空間,並且在進入成年期後,應向他們提供與他們相關的任何公共或私人數據存儲的“乾淨的石板”。 同樣,兒童的正規教育不應涉及商業和其他利益。”

HLEG 建議,成員國和委員會還應設計出持續“分析、衡量和評分 AI 的社會影響”的方法——密切關注正面和負面影響,以便調整政策以考慮不斷變化的影響。

“可以考慮使用各種指數來衡量和評分人工智能的社會影響,例如聯合國可持續發展目標和歐洲社會支柱的社會記分牌指標。 歐盟統計局的歐盟統計計劃以及其他相關歐盟機構應包含在該機制中,以確保生成的信息是可信的、高質量和可驗證的、可持續和持續可用的,”它建議。 “基於人工智能的解決方案可以幫助監測和衡量其社會影響。”

該報告還要求委員會加強對人工智能的投資——特別呼籲為初創企業和中小企業提供更多幫助,以獲取資金和建議,包括通過 InvestEU 計劃。

另一個建議是創建一個 歐盟範圍內的人工智能企業孵化器網絡,連接學術界和工業界。 “這可以與建立歐盟範圍內的開放創新實驗室相結合,這可以進一步建立在數字創新中心網絡的結構上,”它繼續說道。

也有人呼籲鼓勵公共部門採用人工智能,例如 f通過將公共數據轉換為數字格式來推動數字化; 提供 對政府機構進行數據素養教育; C為“高質量人工智能”讀取歐洲大型帶註釋的公共非個人數據庫; 和資金 並促進人工智能工具的開發,這些工具可以幫助檢測政府決策中的偏見和不當偏見。

報告的另一部分涵蓋了試圖加強歐洲人工智能研究的建議——例如加強和創建額外的卓越中心,以解決戰略研究主題並成為“特定人工智能主題的歐洲級乘數”。

人工智能基礎設施投資,例如 分佈式集群和邊緣計算、大內存和快速網絡,以及 還敦促建立測試設施和沙箱網絡; 隨著s“通過通用註釋和標準化”支持歐盟範圍內的數據存儲庫——以防止數據孤島,以及特定行業(如醫療保健、自動化和農業食品)的可信數據空間。

HLEG 加速採用人工智能的計劃引起了一些批評,數字權利組織 Access Now 的歐洲政策經理 Fanny Hidvegi 寫道:“我們現在需要的不是在歐洲所有部門更多地採用人工智能,而是明確保障措施、紅線和執法機制,以確保在歐洲更廣泛地開發和部署的自動化決策系統和人工智能尊重人權。”

HLEG 報告中的其他想法包括開發和實施歐洲人工智能課程; 和米監控和限制自動化致命武器的發展——包括網絡攻擊工具等技術,這些技術不是“實際武器”,但該組織指出“如果部署,可能會產生致命後果。

HLEG 進一步建議歐盟政策制定者不要賦予人工智能係統或機器人法人資格,並寫道:“我們認為這從根本上不符合人類代理、問責制和責任的原則,並構成重大的道德風險。”

報告全文可在此處下載。

Leave a Reply

Your email address will not be published. Required fields are marked *