首頁 >綜合 > 正文

      人工智能不應成為讀心工具

      2023-05-30 14:54:33來源:中國青年報客戶端

      5月10日,日本東京,第7屆日本人工智能大會上,參會者在交談。 圖片來源 視覺中國

      中青報·中青網見習記者 趙婷婷


      (資料圖)

      平躺在功能性核磁共振機(fMRI)內,美國有線電視新聞網(CNN)記者多尼·奧沙利文幾乎聽不到機械的嘈雜聲。他戴著專用耳機,收聽《綠野仙蹤》有聲書中的片段。與此同時,一個人工智能模型正在根據他的大腦活動和他收聽的內容,預測他的所見所思。

      美國得克薩斯大學奧斯汀分校的科學家最近使用fMRI記錄了3名受試者聽故事時的大腦活動。他們使用的是OpenAI公司的第一語言模型GPT-1,該模型以大量書籍和網站數據庫為基礎。通過分析這些數據,人工智能可以學習人類說話和思考的方式。

      得克薩斯大學奧斯汀分校的神經科學和計算機科學助理教授亞歷山大·胡特參與了這項研究。奧沙利文在體驗過程中發現,人工智能在解讀人類思想的過程中還有一些局限,比如,他腦海中出現的《綠野仙蹤》主人公多蘿西沿著黃磚路前行的情景,沒有被解讀出來。

      CNN解釋稱,人工智能模型先要分析參與者在聽到特定單詞時的大腦活動,在學到足夠多的知識后,才有可能通過監測人類的大腦活動做出預測。這讓很多人松了一口氣:“人工智能還不能輕易讀懂我們的思想。”

      “我們不希望將它稱為‘讀心術’,這會讓人聯想到很多不好的事,而且也不太現實。”胡特表示,這項研究的初衷在于“幫助那些無法溝通的人”,比如自閉癥、中風患者或因其他原因無法正常說話的群體。或許未來,他們不必進行神經外科手術,也能找到說話的途徑。

      人工智能的參與可以讓更多的年輕人獲得交流、學習的機會,這引起了有關倫理和法律問題的討論:它會用于審訊嗎?是否會揭露人們內心深處的秘密?

      “每個人的大腦數據都應該受到保護。”得克薩斯大學奧斯汀分校計算機科學博士、此項研究參與者杰瑞·湯認為,“大腦是我們隱私的最后一道防線。”

      胡特相信,大腦數據泄露在短期內不會發生。“我們得到的只是人們思考的方向和輪廓,不會看清小心思和細節。”他說。

      美國麻省理工學院心理學教授雪莉特克爾告訴美國《紐約時報》,“父母應該告訴孩子,人工智能沒有感情和經驗,它只是幫助閱讀和思考的工具,不要輕易用它代替思考,或是向它泄露自己的想法。”

      據CNN報道,針對該技術可能造成的“風險隱患”,OpenAI首席執行官山姆·阿爾特曼針公開回應稱,沒有“護欄”的人工智能發展可能對世界造成重大傷害,他提議立法者盡快解決此類擔憂。

      湯告訴CNN,立法者應謹慎對待“精神隱私”,保護“大腦數據”,防止該技術被濫用。“該技術的適用范圍仍非常有限,但不要認為事情會永遠停留在當前的狀態。重要的是,(人類)不要有虛假的安全感。技術在不斷進步,這可能改變我們解碼的能力。”

      責任編輯:

      標簽:

      免責聲明

      頭條新聞

      推薦內容