在一些人眼里,人工智能對人類構成的威脅甚至超過核武器。日前,包括物理學巨匠斯蒂芬-霍金和PayPal創(chuàng)始人伊隆-馬斯克在內的一群科學家和企業(yè)家簽發(fā)了一封公開信,承諾確保人工智能研究造福人類。馬斯克也投資了一家人工智能公司,目的不是賺錢,而是為了監(jiān)測人工智能發(fā)展。
特斯拉汽車公司和SpaceX公司掌門人馬斯克。馬斯克曾將研制自治可思考機器的做法描述為“召喚惡魔”。
這封由未來生活研究所草擬的公開信警告稱,如果智能機器缺乏監(jiān)管,人類將迎來一個黑暗的未來。信中指出科學家需要采取措施,避免人工智能研究出現(xiàn)可能導致人類毀滅的風險。
據國外媒體報道,在一些人眼里,人工智能對人類構成的威脅甚至超過核武器。日前,包括物理學巨匠斯蒂芬-霍金和PayPal創(chuàng)始人伊隆-馬斯克在內的一群科學家和企業(yè)家簽發(fā)了一封公開信,承諾確保人工智能研究造福人類。這封由未來生活研究所草擬的公開信警告稱,如果智能機器缺乏監(jiān)管,人類將迎來一個黑暗的未來。
未來生活研究所的公開信指出科學家需要采取措施,避免人工智能研究出現(xiàn)可能導致人類毀滅的風險。公開信作者表示人們普遍認為人工智能研究正快速取得進步,將對整個社會產生越來越大的影響。信中稱語言識別、圖像分析、無人駕駛汽車、翻譯和機器人運動都成為人工智能研究的受益者。
作者們表示:“潛在的效益是巨大的。文明的每一個產物都是人類智慧的結晶。我們無法預測在人工智能技術大幅提高機器智商時我們的文明將達到怎樣的程度,但根除疾病和貧困是一個難以預測的過程。”他們同時也警告稱在進行人工智能研究的同時必須相應地采取防范措施,避免人工智能給人類社會造成潛在傷害。在短期內,人工智能技術將讓數(shù)百萬人失業(yè)。在長期內,人工智能可能潛在地讓社會走向反烏托邦,機器的智商遠遠超過人類,做出違背編程的舉動。
公開信說:“我們研發(fā)的人工智能系統(tǒng)必須做我們希望它們做的事情。很多經濟學家和計算機學家認為非常有必要進行研究,確定如何在讓人工智能所能帶來的經濟效益實現(xiàn)最大化的同時減少負面影響,例如加劇不公平和失業(yè)。”除了霍金和馬斯克外,在公開信上簽名的人還包括機器智能研究所的執(zhí)行理事盧克-穆豪瑟爾,麻省理工學院物理學教授和諾貝爾獎得主弗朗克-韋爾切克。
在這封公開信發(fā)表前幾周,霍金教授曾警告稱人工智能將在未來的某一天取代人類。他在倫敦接受英國廣播公司采訪時表示:“人工智能技術的研發(fā)將敲響人類滅絕的警鐘。這項技術能夠按照自己的意愿行事并且以越來越快的速度自行進行重新設計。人類受限于緩慢的生物學進化速度,無法與之競爭和對抗,最終將被人工智能取代。”
霍金曾在2014年初指出成功研發(fā)人工智能將成為人類歷史上犯的最大錯誤。不幸的是,這也可能是最后一個錯誤。2014年11月,特斯拉汽車公司和SpaceX公司掌門人馬斯克警告稱由于機器采用人工智能,“一些極為危險的事情即將發(fā)生”,最快將在5年內。此前,他還曾將研制自治可思考機器的做法描述為“召喚惡魔”。
10月,馬斯克在麻省理工學院AeroAstro百年學術研討會上發(fā)表講話將人工智能稱之為“我們面臨的最大威脅”。他說:“我認為我們必須對人工智能抱著非常謹慎的態(tài)度。在我看來,人工智能可能是我們面臨的最大威脅。因此,我們必須非常謹慎地進行人工智能研究。我越發(fā)堅信我們需要對人工智能的研究進行適當監(jiān)管,可能是在國家層面和國際層面,確保我們不會做出一些非常愚蠢的事情。隨著人工智能的發(fā)展,我們將召喚出惡魔。也許你會認為我們可以用類似五芒星和圣水的東西控制惡魔,但事實根本不是這樣。”