想象一下,未來某個人能夠通過人工智能軟件存在的漏洞,輕松地將無人機(jī)改造成具攻擊性的半自動戰(zhàn)機(jī);一群黑客通過滲透醫(yī)院的智能醫(yī)療設(shè)備,敲詐勒索當(dāng)?shù)卣?hellip;…隨著人工智能技術(shù)的快速發(fā)展,這個未來可能并不遙遠(yuǎn)。顯然,如果不能防止人工智能技術(shù)的惡意使用,社會穩(wěn)定將遭受威脅。
過去一年,我們和其他20多位人工智能領(lǐng)域?qū)<?,通過思考當(dāng)前的人工智能技術(shù)以及其可能如何被壞人利用,寫成了一份報告——《人工智能的惡意使用:預(yù)測、防止與緩解》。
這份報告基于人工智能可能被惡意使用的實際場景,如利用機(jī)器人進(jìn)行非法活動,借助新一代的難以被監(jiān)測的惡意軟件,進(jìn)行復(fù)雜的黑客活動,以及把廣告行業(yè)的工具功能進(jìn)一步延展,針對個人精準(zhǔn)投放等。事實上,在我們召開研討會到完成報告的這段時間,隨著技術(shù)的快速進(jìn)步,一些聽起來像來自科幻小說的假設(shè)場景,已經(jīng)成真。例如,報告有一節(jié)討論了如何使用新的人工智能技術(shù),創(chuàng)建合成視頻和音頻,炮制知名政客的“假新聞”。這說明,即使了解人工智能技術(shù)并為其可能造成的特定威脅做好應(yīng)對,杜絕這類惡意使用的難度依然不小。
這份報告為討論這些問題邁出了第一步,認(rèn)為只有政府和研究人員都給予持續(xù)關(guān)注,才有可能識別、預(yù)防和減輕這些威脅。我們提出了四點建議。首先,政策制定者應(yīng)該與技術(shù)研究人員密切合作,了解相關(guān)技術(shù)和目前的風(fēng)險。其次,人工智能研究人員應(yīng)當(dāng)認(rèn)真考慮技術(shù)這把雙刃劍,并承擔(dān)適當(dāng)責(zé)任。第三,需要進(jìn)行更多的研究,從面臨類似問題的其他領(lǐng)域(如計算機(jī)安全)學(xué)習(xí)解決之道。第四,必須將更多的專家和利益相關(guān)者納入對話。
中國在這些方面有機(jī)會發(fā)揮主導(dǎo)作用。中國政府在去年7月印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中,呼吁“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”“加強(qiáng)對人工智能潛在危害與收益的評估”,以確保人工智能的健康發(fā)展?!兑?guī)劃》還呼吁“深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應(yīng)對全球性挑戰(zhàn)”。我們對此深表贊同。
擁有全球性的態(tài)度至關(guān)重要,這不僅可以有效應(yīng)對這些本質(zhì)上跨國界的問題,還可以確保所采取的措施不會阻礙人工智能整體的持續(xù)性發(fā)展。在應(yīng)對惡意使用者時,我們不能犧牲掉開放創(chuàng)新的精神,而應(yīng)該采取“負(fù)責(zé)任的創(chuàng)新”態(tài)度。
人工智能可以在醫(yī)藥、交通、能源、教育等諸多領(lǐng)域,為中國和世界帶來巨大收益。挑戰(zhàn)與機(jī)遇并存。要享受人工智能的紅利,全球必須更有效地應(yīng)對挑戰(zhàn)。
?。ń芸?middot;克拉克 海倫·托納)
掃一掃微信二維碼
掃一掃微博二維碼