牛津大學教授:如何把控人工智能

2018-05-17

  近年來,隨著人工智能技術的快速發展,公眾的擔憂有所上升。最響亮的聲音之一來自于已故的斯蒂芬·霍金教授,他認為人工智能可能會毀滅人類。那么,該如何看待人工智能的威脅?應該采取行動控制人工智能嗎?是否要像對待核能和其他潛在危險的技術一樣,制定法律甚至是國際條約來控制人工智能的發展?

  回答這些問題之前,首先需要明確的是,人工智能的成就目前仍很有限,F在的人工智能系統能夠執行20年前計算機不可能完成的任務。比如,現在全世界每天都有數以百萬計的人在使用文本自動翻譯工具;無人駕駛汽車即將問世,未來10年將出現在馬路上;計算機現在比人更善于識別人臉等。盡管這些成就令人印象深刻,但人們還是不知道應該如何使機器具有意識和自我感知。因此,在可預見的未來,人工智能接管世界仍將是科幻小說的情節。當然這并不意味著我們可以高枕無憂。

  人工智能系統越來越多地被用于做出決策,這對人們產生了直接影響。例如,銀行發現人工智能系統善于預測潛在客戶是否會成為優質客戶——是否會按時還債等。他們可以通過使用大量的客戶記錄,來“培訓”一個人工智能系統。一段時間后,這一系統將能夠分析潛在客戶的詳細信息,從而預測其是否優質。對于銀行來說,可以迅速而低廉地決定是否需要一個特定的客戶。但對于客戶自身而言,應該會感到擔憂:如果銀行的人工智能系統在某種程度上存在偏見怎么辦?

  這就是算法偏見。當前人工智能浪潮的一個特點是,系統無法像人那樣,解釋或合理化其所做的決定。所以,銀行可能會使用人工智能系統來決定不與你做生意,但卻不能給你解釋原因。這公平嗎?銀行這樣運作合乎道德嗎?誰來對這個決定負責?

  這些問題不容忽視。一種解決辦法是,建議對人工智能技術的使用進行監管。我認為通過一般法律來管理人工智能的使用是不現實的,這似乎有點像試圖通過立法來管理數學的使用。一個似乎正在被接受的辦法是,如果軟件做出了影響你的決定,那么你應該有權知道這個決定是如何做出的,使用了哪些和你有關的數據,標準是什么。我認為這比較合理。使人工智能可解釋化和透明化,是當今這一領域面臨的最大挑戰之一。

  在某些情況下,人工智能決策可能直接事關生死,比如在戰場上使用人工智能系統。盡管目前還沒有證據表明這種“致命性自主武器”已經被使用,但確實已經具備了可能性。過去5年來,人工智能領域的科學家們積極行動,希望政府認識到這一問題的嚴重性并做出應對。最近英國政府在一份報告中明確表示,永遠不給人工智能系統傷害人的權力。

  人工智能只是一種技術,就像任何技術一樣,可以用來造福人類,也可能帶來危害。條件反射式的立法,對于把控人工智能不太可能奏效。我們需要以負責和道德的方式使用人工智能,正如最近全球關于自主武器的討論取得進展一樣,國際社會需要應對解決人工智能帶來的挑戰。

至頂
购彩信誉平台