升降攝像頭、輸入法錄音提示……近日,隱私保護問題成公眾關(guān)注熱點。而隨著技術(shù)的發(fā)展和應(yīng)用,享受技術(shù)的便利和隱私保護似乎成了蹺蹺板的兩端,公眾始終無法同時坐擁兩者。那么,當以大數(shù)據(jù)、人工智能等為關(guān)鍵詞的科技新時代撲面而來時,在保護個人隱私方面我們該做些什么?
知名歌手張學友最近有了一個新的封號:逃犯克星。今年以來,已經(jīng)先后有5名逃犯在他的演唱會上因被人臉識別系統(tǒng)認出而落網(wǎng)。
從維護社會安全角度來說,我們當然應(yīng)該為這樣的科技進步擊掌歡慶。但是,假如人臉識別系統(tǒng)被用在別處,再輔以社交網(wǎng)絡(luò)交叉印證,你的身份、性格、消費習慣、所患疾病、最近去過哪里等都將暴露無疑,甚至可以識別出人的性取向。這時,我們還能為此歡呼嗎?
近年來,人臉識別技術(shù)發(fā)展到了新的高度,人們在暢享便利的同時,對其安全隱患及倫理困境的爭論也不斷升級。
人臉是進行情感交流和構(gòu)建社會關(guān)系的重要基礎(chǔ)。我們的面部存在數(shù)量驚人的特征,不僅可以幫助人們認出彼此,還能通過面部表情傳達情感信號。我們會努力掩飾自己的表情,并解讀對方人臉傳遞出的信息,尋找吸引力、敵意、信任、欺詐等各種各樣的信號。
但是,現(xiàn)在面對人臉識別技術(shù),我們的面容已不再是“一個美麗的秘密”。與所有其它生物信息識別不同,人臉識別大部分時候未經(jīng)同意就已啟動。比如相親時,也許只要一副特制的眼鏡,就馬上知道對面的相親對象是在假笑還是裝牙疼。
當這些數(shù)字化的臉譜數(shù)據(jù)嵌入到現(xiàn)實世界中,我們的婚姻和工作關(guān)系肯定會更加真實,但和諧度卻會大大降低,甚至人類社會交往的模式可能發(fā)生改變。從前,我們基于信任做出允諾,未來則可能根據(jù)人臉識別信息進行風險評估。而這樣的變化,可能是人臉識別技術(shù)的開發(fā)者和使用者無法預(yù)料和掌控的。
技術(shù)是一把雙刃劍,就看是誰在用它。近代德國社會學家馬克斯·韋伯曾提出著名工具理性與價值理性的區(qū)分,其核心是說技術(shù)或者工具追求的是如何高效地實現(xiàn)既定的目標,而價值理性的任務(wù)是考察這一目標對人類福祉和社會發(fā)展所具有的價值,兩者必須統(tǒng)一。
也就是說,技術(shù)人員的責任不僅僅局限于把技術(shù)和產(chǎn)品搞出來,而應(yīng)更多地思考他們開發(fā)的技術(shù)和產(chǎn)品的廣泛社會影響。同理,科技公司在技術(shù)研發(fā)和產(chǎn)品應(yīng)用中做出的選擇也具有廣泛的社會影響。因此,技術(shù)開發(fā)者有必要保持人臉識別系統(tǒng)對公眾的透明度,并采取相關(guān)舉措維護公眾信任。
隨著可穿戴設(shè)備的普及,攝像頭會滲透到生活的更多角落,各種“黑科技”也會以超乎想象的速度發(fā)展。如何化解人臉識別系統(tǒng)帶來的倫理學、哲學困境,還有待全球?qū)W者的共同研討和商榷。
出現(xiàn)倫理問題,僅靠民眾呼吁無法解決根本問題。人工智能的開發(fā)者、決策者應(yīng)該更加自律,相關(guān)企業(yè)應(yīng)設(shè)立倫理審查機制,以防止技術(shù)被濫用。同時,相關(guān)立法也必須緊跟。要把個人生物信息權(quán)作為重要的基本權(quán)利對待,建立健全個人對信息權(quán)利的投訴和救濟機制。目前,歐洲已經(jīng)有所行動,最近出臺的《通用數(shù)據(jù)保護條例》規(guī)定,包括人像在內(nèi)的生物信息屬于本人所有,對其使用需要征得同意。
TH