美國耶魯大學曾經設計了一臺這樣的計算機:它的存儲器里沒有保存預先準備好的固定說法,它自行編制答話,會論證,會“思考”,某種程度上有點像人。靠著心理學和信息論,科學家為自己提出了一個令世人驚異不已的課題:把人的思維方式和行為研究清楚,然后去人工模擬它。
談到“人工智能”這個詞的時候,我們馬上會把它跟一些非真實的東西聯在一起。這個詞的出現,令許多人提心吊膽:機器人和人一樣了,那人類將何去何從!有的人在拼命捍衛著人類自身的最后一個堡壘,使其免遭機器人的傷害、侵犯。問題之所以復雜還在于這個詞至今還沒有形成統一的定義。明斯基說:“這是一門科學,它使機器人去做這樣一種事情,這種事情如果由人去做的話,就會被認為是有智能的行為。”這類俏皮的定義用處不大,有時簡直會把研究者引到實用形式主義的沼澤中去。另一個叫圖靈的研究者提出了人工智能的測試方法:如果人類猜不出計算機跟他談話時將表述何種內容——不知道它要說什么,那么,這臺計算機已經達到了人的智能水平。他的這一番高論曾經引起了轟動,給學術界添了不少忙亂。為了排除計算機言語問題,這樣的對話最好是利用電傳機進行。對于許多控制專家來說,為達到圖靈所說的水平,進行了大量的工作。數不清的各種各樣的電子交談者紛紛問世。
60年代末,美國控制論專家、麻省理工學院教師魏森鮑姆編成了幾個程序,其主要目的是滿足圖靈的測試條件——把吹毛求疵的技術專家搞糊涂。這種做法的基礎是似是而非的對話。在進行這種對話時,交談者只是看起來像是在交談。“交談者”實際上不去考慮交談對方所說的意思,而是把聽到的東西作些并不復雜的形式上的改變,組成自己的答話。請看:
研究者說:“朋友建議我到您這兒來,他說這多少可使我快樂些。”
計算機吃驚地問道:“您的朋友建議您到這兒來?”
研究者說:“他說我總是郁郁不樂。”
計算機說:“您郁郁不樂,我很遺憾。”
詳盡研究了無聊空洞的沙龍對話之后,魏森鮑姆發明了他那富有魅力的
“機器人女士”。他發現他的某些同胞能在毫無興趣的情況下應付對方談話,而且他們的對話仍能很好地進行下去。這個機器人女士繼承了這一能力,能在問話中找到關鍵詞語,然后組成一些公式化的令人感到恰當的答案。看得出,這位“女士”是有些智能。但實際上,她的智能有限,只是善于偽裝罷了。“女士”的頭腦十分簡單,在人說出來的話語中,一些固定的關鍵詞語迫使它產生反應,提出一些固定的語句來。比如,當人說“你不知道某某”時,“女士”便會答道:“為什么您認為我不知道呢?”她能說會道,但只不過是一個沙龍里閑聊的能手罷了。
科爾比在斯坦福大學編制了另一種計算機程序,它與上述“女士”不同。它的任務是幫助剛剛開始工作的精神病醫生獲得某些同重病患者交談的經驗。這個程序模擬的是患迫害狂的病人。程序中存儲了一定的履歷情況:佩里,28歲,未婚,在郵局工作;他極其脆弱,對涉及他的外貌、教育和信仰等所有問題都敏感;他的愛好是看電影和賽馬;有一次,他竟朝賽馬場賭注登記員猛撲過去,因為那個人沒付給他贏得的彩金;從此,他便開始懼怕黑社會的報復。交談中,佩里的情緒經常變化。如果談話主持人經常地觸及到佩里的“痛處”,佩里便開始激動,出現妄想狂癥狀。下面是他們的對話:
醫生:“您怕黑社會嗎?”
佩里:“黑手黨是最可怕的暴徒。”
醫生:“您跟黑手黨有什么聯系嗎?”
佩里:“您沒看到嗎,他們知道我。”
醫生:“他們怎么會知道你?”
佩里:“他們在監視我。”
醫生:“為什么?”
佩里:“他們想羅織罪名把我打入監獄。”
醫生:“他們為什么要害您?”
佩里:“他們想置我于死地。”
醫生:“為什么呢?”
佩里:“我掌握著黑手黨的罪證。”
一群精神病醫生被安排通過電傳機跟一個真病人和佩里同時進行交談,雖然他們知道其中一個交談者是計算機,但猜不出究竟哪個是計算機。這樣,圖靈測試法便開始發生作用了。后來發生了更加有趣的事,先前魏森鮑姆制作了一個模擬精神病醫生醫治某些神經功能失調癥的機器人;后來產生了用這個機器人來治佩里的想法,這是它們之間的對話:
醫生:“您好,請說說您哪兒不舒服?”
佩里:“我有時生別人的氣。”
醫生:“我不太理解您說的意思。”
佩里:“您應該注意聽些。”
醫生:“請繼續說吧。”
佩里:“我曾經去過貝—梅多烏斯賽馬場。”
醫生:“您去干什么?”
佩里:“我去賽馬了。”
醫生:“您還想討論什么?”
佩里:“我對賽馬感興趣。”
醫生:“您為什么要說這些呢?”
佩里:“那里賽馬賭博時搗鬼。”
醫生:“我不太明白您的意思。”
佩里:“您真是個令人討厭的人!”
醫生:“您喜歡把我看作是個真正令人討厭的人嗎?”
佩里:“我聽膩了。”
醫生:“為什么?”
佩里:“再見!”
醫生:“認識您十分高興。您應交付399美元25美分。”
這就是它們的對話,交談得不錯,盡管醫生有些“瞎蒙”。程序員準備逐步完善“佩里”的程序,以便年輕的醫生們能在對話過程中“治愈”這個人造病人。到那時,大學生們便可以通過跟計算機交談來學習,免去面對真正的精神病人時因醫術不熟練造成的痛苦。
教會機器人去抓住這樣或那樣的實質更為重要。跟計算機談話有兩種類型:有限的交談和有限的理解。在有限的交談中,機器人“理解”它所交談的全部內容,不過只是涉及到確定話題的情形下,比方說,下棋或擺積木。在有限的理解時,可以同它隨意交談,但是它卻遠遠不能全部理解你的話。魏森鮑姆編制的機器人“女士”這個程序正屬于此類。“女士”只能表面上理解事件和現象。不過,隨著控制對話理論和實踐的發展,機器人的言語變得越來越能表達意思了。圖靈測試法開始經常性地生效了。
美國的一家電子計算機公司的副董事長,陰差陽錯,接受了一次圖靈標準測試。從此,這個標準的地位開始下降了。因為控制專家們由此發現,它也不是檢驗計算機智能極限的最佳標準。
最佳標準是什么呢?怎樣的智能水平才夠稱得上是真正的“智能”機器人呢?這又成了擺在智能科學家面前的一個新問題。
談到“人工智能”這個詞的時候,我們馬上會把它跟一些非真實的東西聯在一起。這個詞的出現,令許多人提心吊膽:機器人和人一樣了,那人類將何去何從!有的人在拼命捍衛著人類自身的最后一個堡壘,使其免遭機器人的傷害、侵犯。問題之所以復雜還在于這個詞至今還沒有形成統一的定義。明斯基說:“這是一門科學,它使機器人去做這樣一種事情,這種事情如果由人去做的話,就會被認為是有智能的行為。”這類俏皮的定義用處不大,有時簡直會把研究者引到實用形式主義的沼澤中去。另一個叫圖靈的研究者提出了人工智能的測試方法:如果人類猜不出計算機跟他談話時將表述何種內容——不知道它要說什么,那么,這臺計算機已經達到了人的智能水平。他的這一番高論曾經引起了轟動,給學術界添了不少忙亂。為了排除計算機言語問題,這樣的對話最好是利用電傳機進行。對于許多控制專家來說,為達到圖靈所說的水平,進行了大量的工作。數不清的各種各樣的電子交談者紛紛問世。
60年代末,美國控制論專家、麻省理工學院教師魏森鮑姆編成了幾個程序,其主要目的是滿足圖靈的測試條件——把吹毛求疵的技術專家搞糊涂。這種做法的基礎是似是而非的對話。在進行這種對話時,交談者只是看起來像是在交談。“交談者”實際上不去考慮交談對方所說的意思,而是把聽到的東西作些并不復雜的形式上的改變,組成自己的答話。請看:
研究者說:“朋友建議我到您這兒來,他說這多少可使我快樂些。”
計算機吃驚地問道:“您的朋友建議您到這兒來?”
研究者說:“他說我總是郁郁不樂。”
計算機說:“您郁郁不樂,我很遺憾。”
詳盡研究了無聊空洞的沙龍對話之后,魏森鮑姆發明了他那富有魅力的
“機器人女士”。他發現他的某些同胞能在毫無興趣的情況下應付對方談話,而且他們的對話仍能很好地進行下去。這個機器人女士繼承了這一能力,能在問話中找到關鍵詞語,然后組成一些公式化的令人感到恰當的答案。看得出,這位“女士”是有些智能。但實際上,她的智能有限,只是善于偽裝罷了。“女士”的頭腦十分簡單,在人說出來的話語中,一些固定的關鍵詞語迫使它產生反應,提出一些固定的語句來。比如,當人說“你不知道某某”時,“女士”便會答道:“為什么您認為我不知道呢?”她能說會道,但只不過是一個沙龍里閑聊的能手罷了。
科爾比在斯坦福大學編制了另一種計算機程序,它與上述“女士”不同。它的任務是幫助剛剛開始工作的精神病醫生獲得某些同重病患者交談的經驗。這個程序模擬的是患迫害狂的病人。程序中存儲了一定的履歷情況:佩里,28歲,未婚,在郵局工作;他極其脆弱,對涉及他的外貌、教育和信仰等所有問題都敏感;他的愛好是看電影和賽馬;有一次,他竟朝賽馬場賭注登記員猛撲過去,因為那個人沒付給他贏得的彩金;從此,他便開始懼怕黑社會的報復。交談中,佩里的情緒經常變化。如果談話主持人經常地觸及到佩里的“痛處”,佩里便開始激動,出現妄想狂癥狀。下面是他們的對話:
醫生:“您怕黑社會嗎?”
佩里:“黑手黨是最可怕的暴徒。”
醫生:“您跟黑手黨有什么聯系嗎?”
佩里:“您沒看到嗎,他們知道我。”
醫生:“他們怎么會知道你?”
佩里:“他們在監視我。”
醫生:“為什么?”
佩里:“他們想羅織罪名把我打入監獄。”
醫生:“他們為什么要害您?”
佩里:“他們想置我于死地。”
醫生:“為什么呢?”
佩里:“我掌握著黑手黨的罪證。”
一群精神病醫生被安排通過電傳機跟一個真病人和佩里同時進行交談,雖然他們知道其中一個交談者是計算機,但猜不出究竟哪個是計算機。這樣,圖靈測試法便開始發生作用了。后來發生了更加有趣的事,先前魏森鮑姆制作了一個模擬精神病醫生醫治某些神經功能失調癥的機器人;后來產生了用這個機器人來治佩里的想法,這是它們之間的對話:
醫生:“您好,請說說您哪兒不舒服?”
佩里:“我有時生別人的氣。”
醫生:“我不太理解您說的意思。”
佩里:“您應該注意聽些。”
醫生:“請繼續說吧。”
佩里:“我曾經去過貝—梅多烏斯賽馬場。”
醫生:“您去干什么?”
佩里:“我去賽馬了。”
醫生:“您還想討論什么?”
佩里:“我對賽馬感興趣。”
醫生:“您為什么要說這些呢?”
佩里:“那里賽馬賭博時搗鬼。”
醫生:“我不太明白您的意思。”
佩里:“您真是個令人討厭的人!”
醫生:“您喜歡把我看作是個真正令人討厭的人嗎?”
佩里:“我聽膩了。”
醫生:“為什么?”
佩里:“再見!”
醫生:“認識您十分高興。您應交付399美元25美分。”
這就是它們的對話,交談得不錯,盡管醫生有些“瞎蒙”。程序員準備逐步完善“佩里”的程序,以便年輕的醫生們能在對話過程中“治愈”這個人造病人。到那時,大學生們便可以通過跟計算機交談來學習,免去面對真正的精神病人時因醫術不熟練造成的痛苦。
教會機器人去抓住這樣或那樣的實質更為重要。跟計算機談話有兩種類型:有限的交談和有限的理解。在有限的交談中,機器人“理解”它所交談的全部內容,不過只是涉及到確定話題的情形下,比方說,下棋或擺積木。在有限的理解時,可以同它隨意交談,但是它卻遠遠不能全部理解你的話。魏森鮑姆編制的機器人“女士”這個程序正屬于此類。“女士”只能表面上理解事件和現象。不過,隨著控制對話理論和實踐的發展,機器人的言語變得越來越能表達意思了。圖靈測試法開始經常性地生效了。
美國的一家電子計算機公司的副董事長,陰差陽錯,接受了一次圖靈標準測試。從此,這個標準的地位開始下降了。因為控制專家們由此發現,它也不是檢驗計算機智能極限的最佳標準。
最佳標準是什么呢?怎樣的智能水平才夠稱得上是真正的“智能”機器人呢?這又成了擺在智能科學家面前的一個新問題。