新AI安全計畫得到伊隆‧馬斯克的資助

2015.0701.1

矽谷企業家伊隆‧馬斯克(Elon Musk)不試圖建立火箭技術殖民火星或者革新地球儲能技術,而是擔憂人工智能有一天將超出人類的控制,進而產生威脅。近日,馬斯克的部份財富正資助一項新成立的人工智能研究項目,旨在確保人工智能的發展在掌握中。

位於波士頓的生命未來研究所(FLI)獲得伊隆‧馬斯克及開放式慈善機構,對世界37個從事人工智能團隊資助的700萬美元的資金。包括開發人工智能隊伍的資助名單可向人類解釋其判定,研究如何維持人工智能在經濟發展中的有利作用,以及弄清楚如何確保人工智能化的軍事武器受控於人類。這些研究有助於社會持續地從人工智能技術先進化中獲益,同時將潛在的危險降至最低。

「建立先進的人工智能技術就像發射火箭。」生命未來研究所創始人之一Jaan Tallinn在一份聲明中說:「人工智能面臨的第一項挑戰就是最大化的加速,一旦它開始加速,你也需要關注掌舵。」

今年1月,生命未來研究所向人工智能研究機構發出了一封公開信,信中呼籲開展「強大而有益的人工智能」研究,在此之後約有300個研究計畫申請了生命未來研究所的資助。這份信中署有Facebook、IBM和微軟人工智能研究人員以及Google DeepMind技術創立者的名字,也有來自其他學術界、非營利機構和工業界的屬名。據報導,此信促使馬斯克向未來生命研究所捐獻了1000萬美元。

然而,不是每個人都需要擔憂機器人會穿越時空來摧毀我們。亞利桑那州立大學實習教授G. Pascal Zachary最近在IEEE Spectrum雜誌發表過一篇文章,關於人類如何在被人工智能改變之前引導人工智能的發展。

Zachary教授說:「人類對於機器人殺手的黑色幻想,使我們忽略了更切身的問題,例如人工智能如何影響雇傭關係、機器人作家和藝術家如何改變人類具創意的消費品,以及誰該對自動化工序中出現的錯誤承擔責任。」

瀏覽一下這項新資助的人工智能研究清單可以發現,研究人員正努力解決這些問題。生命未來研究所的立場與Zachary教授相似,他們強調好萊塢大片中提到的「魔鬼終結者」幻想與現實是不同的。

「終結者故事的危險不在於它將會發生,而是它會分散人們忽略由未來人工智能帶來的真正問題」,生命未來研究所院長Max Tegmark說:「我們正密切關注,而此次獲資助的37個研究團隊將能幫助人們解決這些實際問題。」