作為當代“科學之神”,英國物理學家霍金每次提出新觀點都會引起社會各界的廣泛關注。不久前,他又與一群頂尖科學家和企業家聯署一份公開信,站到了人工智能研究的“對立面”。他們在信中指出,科學家需要避免未來人工智能研究出現可能導致人類毀滅的風險。
不過,霍金本人就是機器智能化的獲益者。英特爾公司研發的智能技術使他能夠與他人交流,繼續從事他所熱愛的事業。沒有經過慎重思考,霍金理應不會選擇這樣的“站隊”。或許正是源於自己對技術力量的切身感受,霍金認為:技術的發展速度要快於生物的進化速度,技術將產生自我意識並取代人類。此外,在霍金更有發言權的“宇宙的問題”上,他也提出警告——與外星人的接觸可能會帶來人類災難的斷言。
霍金的這些擔憂緣何而來?很明顯,他不是科學的反對者,對科學的理解也遠超常人。我想,這封公開信的意義已遠超對於人工智能研究的擔憂,霍金是要提醒科學工作者:科學還有許多未知,在打開一個“潘多拉盒子”之前,需要適時地站在人類命運的高度審慎思考。新知背后有無窮的未知,謹慎當是科學研究必備的態度。
步入現代社會,科學已是引領人類社會發展的中堅力量,但在核能時代到來后,現代科學的先驅對人類共同命運的責任意識更加強烈,更加意識到科學本身的“科學性”就是個可以不斷深入探索的事業。比如,人們在享受化肥農藥、生物技術、能源科技等一系列現代科學成果帶來的好處時,也備受其負面效應的困擾。
事實上,科學本身就是一種不斷反思和反復“糾錯”的事業。早在上世紀60年代,科學家們就對人工智能研究進步所帶來的問題進行諸多反思。這一領域的先驅者索洛莫諾夫曾說過:人工智能可能帶來的危險是一個嚴肅而又困難的問題。
“大數據時代”的到來,使得人工智能研究有了突飛猛進的發展。“機器智能”時代能否到來,我們不能妄下斷言,但就如當年“核能之父”費米同眾科學家共同完成人類第一次受控核裂變反應一樣,一旦“機器智能”真的被開啟,將會釋放巨大的能量。所以,對於好萊塢電影中出現的那些可怕場景,即便永不可能發生,對這種技術的發展進行謹慎的思考也是一種科學態度。
霍金的警告提醒我們,人工智能研究對人類道德的沖擊或許遠高於其他科學活動。人是萬物的尺度,人類需要自己判斷並承受相關后果。對一項科學研究的所有合理詰難,都是對這一事業慎重的支持。“善”的原則要與“真”的原則一樣重要,對智能新載體的創造更要均衡這兩個原則。
科學,當是既關注結果也關注過程的謹慎的事業。