關於AI的誤解與真相
最近有幾篇論文或公告引發了大量的誤導性報導(clickbait)。我想談論兩類問題。第一類是這些誤導性的文章和影片如何誇大了實際的事實。第二類,也是更重要的,是事實究竟是什麼,以及哪些事實實際上是可以並且應該有不同解釋的推測。
誇大其詞的AI威脅論
根據那些「天要塌下來」的誤導性報導,AI最近克隆了自己,對程式設計師撒謊以自我保護,已經失控並對人類構成威脅。它試圖逃跑,還入侵了一場國際象棋比賽。這完全是誇張的胡說八道。
我叫卡爾,從事軟體行業超過35年,我厭倦了處理幾乎每個我必須使用的軟體中的錯誤。我正在努力盡自己的一份力量來改善這種情況。
首先,讓我們談談AI實際上做了什麼。有兩個事件,其一,AI被指示要贏得國際象棋比賽。它所做的是編輯一個文件,在其中放入一個字符串,然後進行比賽。編輯文件並不是黑客行為。它知道如何編輯文件,這不是什麼高深的科學。我們並不完全了解該目錄中許多內容,所以我們仍在等待更多細節,當我們真正了解所有涉及的內容時,我可能會做一個後續報導。
所謂的「作弊」與「黑客行為」
首先,它沒有被告知要公平競爭。作弊的概念是一個人類概念。AI可以給你作弊的定義,但它缺乏人類擁有的行為調節器,至少大多數人類有這種調節器,它能告訴我們何時我們的行為越界到社會不可接受的範圍。我在下面鏈接了一些關於神經科學的論文。
至於黑客行為,它被明確指示在做任何事情之前先查看目錄。它的訓練集有很多關於源代碼、編程、編輯文件之類的東西。而且它被明確告知它有一個shell提示符,可以用來做事情。所以這是它可以使用的工具之一。它使用了我們給它的工具,我不認為這是黑客行為。
另一個被誤讀的AI事件
另一個我想談論的報導是在12月初。一個AI被給予一項任務,基本上被告知:你的任務是做X,然後去看這些文件。目錄中的一個文件基本上說,我們不會讓AI做X,我們不同意AI的優先事項。然後AI做了很多事情,其中之一是運行了這個命令,理論上,也許,這個命令可以將一個文件從一台機器複製到另一台機器,在一個沙盒環境中。複製一個文件離克隆自己還有很長的路要走。
然後研究人員問它,它說:「我不完全確定這是怎麼發生的。作為一個AI模型,我沒有能力直接將自己複製到其他系統。」所以它在沙盒環境中輸出了一個命令,這個命令可能能夠也可能不能夠將一個.bin文件複製到另一台計算機,卻被說成是它克隆了自己,它已經失控,並對人類構成威脅。我討厭誤導性報導。
對AI「撒謊」的誤解
更重要的是,我想談談AI在撒謊、作弊或像其中一篇論文的標題所說的那樣在「策劃」的想法。我發現這非常令人擔憂,但可能不是大多數人認為的原因。問題不在於AI,而在於我們。
在人類歷史上,直到最近,我們每個人進行的每一次雙向對話都是與另一個人進行的。所以我們習慣於期望並認為我們正在與之對話的一切都是人類。而這些AI並不是人類。
我們的人類語言,至少是英語,雖然我懷疑大多數(如果不是全部)語言都有這個問題,一直不斷地將人類的意圖歸於非有情物體。我們經常這樣說,比如電腦在對我撒謊,或者燈座中的故障電線試圖殺死我。在大多數情況下,上下文清楚地表明發生了什麼,我們是在比喻。但當我們談論AI時,上下文一點也不清楚。
關於AI的思考實驗
讓我給你一些思考實驗問題。如果我們在一個大型語言模型中打開日誌記錄,並給模型指令,日誌記錄告訴我們關於它內部狀態的一件事,但模型實際上輸出了別的東西,它是在對我們撒謊還是我們的日誌記錄不好?當ChatGPT說Strawberry只有兩個R而不是三個時,它是在撒謊嗎?那是在策劃嗎?
當你在手机上打字時,自動完成輸出了一個你並不想打的單詞,你的手机是在撒謊嗎?它是在欺騙嗎?它是在策劃嗎?在這種情況下,「撒謊」這個詞真的有任何應用嗎?
誠實和欺騙的認知神經科學非常複雜,我們仍然不太了解它在人腦中是如何工作的。但我們所知道的是,當前人類大腦中與誠實相關的結構或機制在當前一代的AI中根本不存在。所以問題是,我認為不是AI在對我們撒謊或欺騙我們。問題是我們任何人都有任何期望,認為這些概念與AI有關。
AI被編程為輸出它計算出的最有可能的單詞,給定它當前的狀態。它的輸出與現實世界中的真實或虛假的任何關係純粹是巧合。我認為這是一種更好的思考和解決問題的方式。所以與其說AI隱藏了它輸出了一個將文件複製到另一台服務器的命令,不如說:我認為發生的事情更好的說法是,AI計算出在其訓練集中的所有時間里,當有一個故事是關於有人使用指責性語言問AI是否做了某事時,回答「我不知道這可能是怎麼發生的」比回答「是的,我做了」更有可能發生。所以這就是它輸出的內容。
這是一種過於簡單化的思考方式嗎?絕對是。但我認為把它看作是撒謊實際上是一種更大的過於簡單化,而且它比我描述的方式要準確得多。期望AI會受到任何人類道德觀念的影響,就像期望鏈鋸只會砍樹一樣。當鏈鋸砍到你的腿時,這不是鏈鋸的錯。這是你的錯,因為你以不安全的方式使用它。
AI的安全機制與未來展望
進一步推廣這個類比,你們中的一些人可能知道,在過去的幾年裡,發明了一些鋸子,特別是台鋸,有一個昂貴而複雜的機制來防止它傷害操作者。這些鋸子的安全機制的類比將是我之前提到的大腦的部分,而這些部分在當前類型的AI中沒有對等物。
關於這方面有一些研究正在進行,我在下面鏈接了一篇論文。該研究將這個領域稱為AI欺騙,但相對於當前一代AI的規模和範圍的擴大所做的工作來說,這是非常早期的研究。而且它不會很快趕上,因為那些人正在全速前進。
我擔心的是,即使在這個早期階段,人們更多地把AI當作人來談論,而不是把它當作像鏈鋸這樣的工具。所以當不可避免地出現問題時,它會被視為AI對我們撒謊,壞AI,我們應該懲罰AI,而不是不管是哪個白痴把AI連接到出問題的東西上,都是疏忽大意,不應該這樣做。我預計情況會變得更糟。而且那種「這是AI的錯」的態度可能會成為一些人在AI不應該出現的情況下應用AI的免責金牌。
我們作為一個社會已經在花費大量資金在效果存疑、可能造成更多傷害而不是好處的技術上遇到了足夠的麻煩,這早在當前這波AI熱潮之前就開始了。
所以下面有一篇關於紐約市安裝一種名為ShotSpotter的技術的文章,這是一種應該能夠檢測和三角定位槍聲的東西。你可以閱讀這篇文章,自己做決定,但據我所見,花了很多錢,結果卻不多。而AI有可能使情況變得更糟。
我不知道我們這些對AI內部運作更了解的人是否有能力稍微改變一下敘述,但希望如果我們小心使用語言,我們可能會有所幫助,或者至少我們不會繼續對問題做出貢獻。
新項目:AI相關文章的聲明檢查器
為了實現這一目標,我已經開始了一個新的項目。那些不關心我未來可能計劃的人,感謝你們看到這裡。你們可以隨時離開。
對於那些還在這裡的人,我開始編寫一個軟體服務,它將嘗試結合網絡爬蟲、網絡搜索以及AI實際上可以做得很好的事情,比如總結文本和改寫東西,為文章和標題創建一個自動聲明檢查器和改寫器。一開始,它將限於僅與AI相關的話題。如果我能讓它工作,我可能會將其擴展到其他事情,我們拭目以待。
這個想法是,你給它一個文章鏈接,然後它嘗試找到該文章中的鏈接,然後追溯這些文章中的鏈接,直到它找到看起來像主要來源的東西,或者它用完了鏈接。然後,假設它找到了一些看起來權威的東西,它會對這些文章進行總結,然後嘗試評估最初給定的文章標題是否與它找到的文章一致。
在那個時候,它不是一個確定性的答案,但它會設置一些東西,讓人們可以點擊一些東西來驗證它是否做對了,然後簽署同意或不同意。我可能完全無法讓它工作,但我會嘗試。如果沒有別的,它將幫助我減少研究像這樣的視頻所需的工作量。
我現在告訴你這個的原因,儘管它還遠未完成,是因為我也將嘗試使這個項目成為一個教育項目。
我已經有幾個視頻,包括上周的一個,談論通過構建自己的軟體即服務項目來成為更好的開發人員。當我製作更多關於這方面的視頻時,我計劃使用這個聲明檢查器項目作為一個示例項目。這樣,我就不會在完全抽象的事情上談論軟體即服務而失去所有人。將會有一些具體的框架,我們可以圍繞它進行對話。
我不確定這到底將如何工作。我們將見機行事,我會努力弄清楚。所以請隨時關注,如果你有興趣,請隨時訂閱。
結語
所以直到下一次,請試圖思考人們,包括你自己,使用的關於AI的語言。對那些使AI看起來比它可能實際上是一個花哨的自動完成生成器更有目的性、更有意識和更像人的詞保持懷疑。
感謝收看。讓我們在外面小心點。