沒有一項技術能像人工智能那樣引發(fā)道德擔憂,甚至是恐懼。擔憂的不僅僅是個別公民,Facebook、谷歌和斯坦福大學等都投資了人工智能倫理研究中心。去年年底,加拿大和法國聯合成立了一個國際小組,討論如何“負責任的”使用人工智能。
4月9日,歐盟委員會發(fā)布了自己的指導方針,呼吁“值得信賴的人工智能”。
歐盟認為,人工智能應該堅持尊重人類自治、防止傷害、公平和責任的基本倫理原則。該指南包括7項要求,并呼吁特別注意保護兒童和殘疾人等弱勢群體。他們還表示,公民應該完全控制它們的數據。
歐盟委員會建議在開發(fā)或部署人工智能時使用評估列表,但這些指導方針并不意味著會成為政策或監(jiān)管的依據,也不意味著要干預政策,他們只是提供了一個寬松的框架。
今年夏天,委員會將與相關方合作,確定可能需要額外指導的領域,并確定如何更好的執(zhí)行和核查。在2020年初,專家組將納入試點階段的反饋意見。
隨著我們開發(fā)出全自動化武器和假新聞生成算法等產品,很可能會有更多的政府對AI帶來的倫理問題表明立場。
下面是歐盟指南的七條關鍵摘要:
人的管理和監(jiān)督: 人工智能系統(tǒng)應受人的基本管理和支持人的基本權利,從而使公平社會得以實現,而不是減少、限制或誤導人類自治。
穩(wěn)健性和安全性: 值得信賴的人工智能要求算法足夠安全、可靠和穩(wěn)健性,能夠處理人工智能系統(tǒng)在各個周期階段的錯誤或不一致。
隱私和數據管理: 公民應該對自己的數據有完全的控制權,而與之相關的數據不會被用來傷害他們。
透明度: 應確保人工智能系統(tǒng)的可追溯性。
多樣性、非歧視性和公平性: 人工智能系統(tǒng)應考慮人類的各種能力、技能和需求,并確保其系統(tǒng)的可訪問性。
社會和環(huán)境福祉: 應采用人工智能系統(tǒng)來促進積極的社會變革,增強可持續(xù)性和生態(tài)責任。
問責制: 應建立機制,確保對人工智能系統(tǒng)及其成果負責和問責。