人工智能作為當今最前沿的科技之一,正在以令人驚嘆的速度改變著我們的生活。從智能語音助手到無人駕駛汽車,從 AI 繪畫到機器學習,它為我們打開了一個充滿無限可能的未來。本欄目將以通俗易懂的方式,用視頻和文字給孩子講述人工智能的原理、應用及其對社會的深遠影響。
快跟我們一起開啟這場 AI 之旅吧!
人工智能靠著自己強大的學習能力,對人類語言的理解、處理能力,給各個行業帶來翻天覆地的變化。
在享受人工智能帶來的便利的同時,有些人可能會產生一個疑問。人工智能到底有多聰明呢?或者換句話說,人工智能真的擁有了“智能”嗎?
這一集,我們就來說一說,AI 離智能還有多遠。
圖靈測試
早在上個世紀人工智能誕生之前,一些科幻小說里,就涉及到對機器人、外星生命的智能判斷。但之前對智能的探討,更多地聚焦于智能的定義層面。
即便在今天,想給“智能”一詞下個全面的定義也非常困難,存在各種各樣跨行業、跨領域的爭議。
在 1950 年,大名鼎鼎的數學家圖靈在論文《計算機器與智能》中提出了一個巧妙的想法,他并沒有從定義上去探討到底什么是智能,而是提出了一個更直接、更好操作的測試,來衡量機器是否具備了智能。這個測試,被圖靈稱之為“imitation game”,即模仿游戲,也就是被后人津津樂道的“圖靈測試”。
圖靈測試的具體方法如下,測試需要由兩方來完成,人類評估者和受試者。
受試者可能是一臺機器,也可能是一個真人。評估者并不知道受試者的真實身份,但可以通過文本信息的方式,跟受試者進行交流。可以理解成,隔著屏幕聊一會天,然后判斷對方是不是人。
在這期間,機器會盡量偽裝成人類。經過一段時間的交流之后,如果機器騙能騙過 30%的人類評估者,那就可以認為它具有了智能。
想要做到這一點并不容易。畢竟一個 AI 要盡量多地了解人類的語言和知識,才能更好地“偽裝”成人類。
另外,AI 還需要模擬人類的心理特征。比如,如果連續問 5 遍“明天會下雨嗎”。如果對面是個 AI,它可能會一遍遍耐心地回答你的問題,而假如是個真人,可能在你問到第三遍的時候,就已經不耐煩了。
目前,已經有聊天機器人通過了圖靈測試。其中最出名的,要數一款叫尤金·古斯特曼的聊天機器人了。
這個機器人偽裝成了 13 歲的烏克蘭小男孩參加測試。因為這個身份,人類評委覺得它有些問題答得比較奇怪。但這是可以理解的,畢竟一個處于青春期的外國小男孩,難免會有些叛逆。
用這種方式通過圖靈測試,不免讓人覺得有一些討巧。也很難不讓人懷疑,通過圖靈測試的 AI,就真的意味著它們擁有了智能。
中文房子思想實驗
事實上,在圖靈測試提出之后,就不斷有科學家對它的可靠性提出質疑。最有代表性的,要數 1980 年,約翰·塞爾提出的中文房子思想實驗。
這個思想實驗是這樣的,假如把一個懂英文,但是對中文一竅不通的人關在一個房間里,房間外的人可以通過中文寫成的紙條,跟里面的人交流。
雖然房間里的人不懂中文,但有一本問答手冊,手冊上記錄了幾乎所有可能碰到的中文問題,以及對應的答案,當然了,答案也是用中文寫的。這個人只需要在手冊上找到問題,把答案抄下來,遞給外面的人。
外面的人可能會覺得里面的人是一個中文天才。但其實,里面的人只是查手冊,至于這些問題和答案到底是什么意思,他并不知道。所以,并不能說這個人真的懂了中文。
這個思想實驗,說明了即便計算機能夠用人類的語言回答人類提出的問題,但也并不意味著計算機真的在思考,只是按照人類給定的規則、手冊生成答案罷了——這樣的反駁顯然很有力量。
除此之外,其他反對的聲音也此起彼伏。所以到了今天,雖然圖靈測試依然存在,但它并不是判斷人工智能是否“智能”的唯一標準。
在 2023 年,AI21 Labs 公司對包括 Chat GPT 在內的多種大模型進行了一次線上圖靈測試,總共進行了 200 萬次對話,有 32%的人錯把 AI 當成了人類,說明這些大語言模型已經通過了傳統的圖靈測試。
現在,人們在評價 AI 智能的時候,可能會從邏輯推理能力、問題回答的準確性、錯誤率、對特定內容的理解力等幾個方面綜合打分,盡可能全面地做出判斷。
而對于具有特定功能的機器人,比如圍棋機器人 Alpha Go,也是用圍棋能力來對它進行評估,而不是讓它來跟人類對話,這樣顯然是更合理一些。
相信在未來一定會出現更好、更客觀的方法來評價 AI 的“智能”。這不僅能使得我們對 AI 的能力有更直觀地了解,也給了我們更多機會,深入地思考到底“智能”的含義。
來源:科普中國