隨著技術的不斷發展,AI已經逐漸深入到了我們的生活中,從語音翻譯到智能助手再到自動駕駛等等。AI在為人們生活帶來便利的同時,也引發了不少人的“恐慌”。面對AI的發展,我們到底應該擁抱還是擔憂?
微軟研究院院長及技術院士Eric Horvitz在《Science(科學)》雜誌AI專刊上撰文“AI, people, and society”(AI,人類和社會),為大家解讀AI前進的道路。
艾薩克·阿西莫夫在關於其科幻小說作品的一篇文章中曾寫道:“人們普遍將機器人視為危險設備,認為它們總有一天會摧毀人類。”而對此,他持反對觀點並制定了旨在確保機器人系統安全性和仁慈心的“機器人三定律”。阿西莫夫關於人與機器人之間關系的小說問世沒幾年,“人工智能”(AI)這個術語便首次出現在1955年的一份運用計算機解決“目前只有人類才能解決的問題”的研究提案中。隨後經歷的半個世紀,AI已經發展成為一個成熟的細分學科,產生了一系列可用於實現(機器)感知、學習、推理和自然語言理解的方法。通過“深度學習”的方法,計算機在模式識別方面的準確性突飛猛進,AI也由此變得愈發激動人心。這些進步將“語音翻譯”和“半自動駕駛”等新功能實實在在地交付到了消費者手中。但許多艱難的挑戰也仍然存在,而且AI科學家們仍然對人類智慧的眾多能力感到高深莫測。
AI發展帶來的興奮被對它們潛在缺陷的擔憂所蒙蔽。有些人擔心超級智能崛起以及AI系統可能的失控,另外一些人則擔心不遠的將來可能出現的問題,例如,用於指導醫療保健和刑事司法等領域高風險決策的數據驅動分類器可能會受到數據集偏見的影響,導致不公平和不準確的推論。其它備受關註的緊迫問題還包括:與AI自主系統決策相關的法律和倫理問題、推論解析中存在的困難、新的監控形式對公民自由的威脅、以勸說為目的的精確操縱、將AI用於犯罪目的、軍事應用中的顛覆性影響,以及機器搶奪人類就業機會並因而加劇財富不均等問題的潛在可能。伴隨著我們推動AI科學發展的努力,應對AI給人類與社會可能會帶來的影響,無論從短期還是長期的維度上看都是至關重要的。我們可以通過重點研究、監測和分析來制定有價值的評估和指導。而AI影響範圍廣泛,因此需要跨學科團體的參與,包括計算機科學家、社會科學家、心理學家、經濟學家和法律專家等。在長期的問題上,則需要展開對話,以彌合關於超級智能和惡意AI可能性等問題上的意見分歧。探索方向應該包括:詳細界定AI發展的軌跡和結果,並邀請在軟件驗證、安全和故障防護設計原則等領域有精深見解的計算機科學家和工程師參與其中。
現在人們已經開始了相關的研究和項目。2008年,人工智能進步協會(Association for the Advancement of Artificial Intelligence)就開展了一項長達數月的AI長期前景的研究,並在美國加利福尼亞州的Asilomar舉行了一次會議。而在這次會議的啟發下,斯坦福大學設立了“百年AI研究項目”,他們計劃每五年進行一次類似的研究,並持續一個世紀以上(第一份報告已於去年發布)。同時,美國國家科學院也進行了一項長達2年的研究,並於去年4月發表了一篇關於自動化對美國勞動力影響的報告。而今年早些時候,來自工業界、學術界和民間社團的代表成立了非盈利性質的人工智能合作組織(Partnership on AI),旨在為AI技術的開發和部署提出最佳實操建議。
艾薩克·阿西莫夫在他的文中總結道:“我無法接受‘如果知識代表危險,無知就是解決辦法’這種觀點。對我來說,解決的辦法一定是運用人類的智慧。人類不能拒絕直面的危險,而要學會如何安全地應對。”事實上,AI前進的道路原本就應以理智的好奇、審慎與合作為指引。
已有 318 位網友參與,快來吐槽:
發表評論