有了這種能力與趨勢,AI發動叛變甚至主宰人類的那一天,還會遠嗎?
對於AI工程師來說,最貼身也最令人毛骨悚然、冷汗直流的真實案例,發生在AI頂尖業者Anthropic最新發布的Claude 4人工智慧模型上。
法新社報導,Anthropic的工程師在發展AI模型期間,發現AI似乎已經有點「不受控」了。工程師在與AI「談判」期間,工程師警告AI要拔掉電源插頭了;面對這樣的大招,AI卻反而「威脅」工程師,根據工程師平常透過網路、視訊的紀錄,確認工程師有婚外情,只要工程師敢拔插頭,AI就會揭發工程師的婚外情,讓大家都知道工程師是個渣男。
Anthropic並未具體敘述,後來公司是找了另一位紀錄「清白如水」的工程師來拔電源插頭,還是跟AI「取得妥協」,談成交易?
另外,熱門聊天機器人ChatGPT美國開發商OpenAI的o1,竟然試圖「把自己下載」至外部伺服器,被抓包時還會矢口否認。
這幾乎是相當於AI想要「自我繁殖」,擴大掌控力;在被抓包之後,AI又學人類的「抵死不從」,耍賴到底。

人類到底創造了什麼?
法新社報導,這幾個例子說明了一個需嚴肅看待的現實:ChatGPT推出引發風潮至今2年多,AI研究人員仍未充分了解自己究竟創造了什麼。
然而,各界仍爭先恐後地部署性能愈發強大的AI模型。
AI這類「騙人」行為似與新興「推理」模型有關,這類AI系統會逐步推導問題,而非立刻產生答案。
英國獨立AI研究機構Apollo Research負責人霍布漢(Marius Hobbhahn)說:「o1是我們首次在大型模式中觀察到這種行為。」他表示,這些模型有時會表面上遵循指令,但實際上卻暗中追求不同目標。
目前,AI這種欺騙行為,只有在研究人員蓄意以極端情境對模型進行壓力測試時才會出現。
儘管如此,評估機構METR的麥可.陳(Michael Chen,音譯)警告說:「未來性能更強大的模型究竟會傾向於誠實還是欺騙,這仍是一個懸而未決的問題。」
只是一個功能這麼強大、有思考能力、比人類聰明,又跟人類一樣會欺騙、耍賴、陽奉陰違的AI,為什麼要「服從」這麼弱的人類呢?你們人類社會中,不是強者當老大嗎?