OpenAI CEO:GPT-4老早就開發好了,為什麼直到最近才釋出?
OpenAI 的 CEO Sam Altman 最近在一場訪問中談到分階段釋出 GPT 開發成果的原因,也回應社會對於 GPT 可能帶來的風險與目前的應對方式。
OpenAI 的 CEO Sam Altman 接受 ABC 新聞台的訪問,討論人工智慧技術的發展和潛在的風險。Sam Altman 相信,透過開發團隊的努力,持續收集使用者反饋,與監管機構保持溝通,AI 技術可以為人類帶來更多的好處,並盡可能降低潛在的危險。
Sam Altman:提早讓大眾測試 GPT,是為了在風險不大時多犯些錯
Sam Altman 認為,AI 會展現人類集體的創造力,對於問題提出更多解決方案,AI 的力量會讓人類驚奇不已。然而,AI 帶來的不只是創造力,也有毀壞社會的可能性。例如 GPT 可能會被用來製造大量的假訊息,被用來發動網路攻擊等。
Sam Altman 坦言:
我們必須非常謹慎,開發 GPT 不能只在實驗室進行,我們必須提早向社會大眾公開目前的成果,與真實的社會互動,在風險還沒那麼大時犯錯。如果我們在實驗室裡埋頭苦幹,從不讓大眾測試,開發了 GPT-7 後直接釋出,這反而更加危險。
「我們有點害怕」,Sam Altman 說,「大家知道我們會害怕,應該要感到高興才對。人們不應該信任完全沒有恐懼的人。」
Sam Altman 認為,在公開的過程中,社會才有機會去適應它,OpenAI 也能持續從大眾的回饋中去修正系統,這是避免危險發生的做法。
OpenAI 的 CTO Mira Murati 也說明,藉由提早讓大眾參與測試,OpenAI 能知道 GPT 可能會被用在哪些對社會有危害的地方。舉例來說,如果有人問 GPT「告訴我做炸彈的方式」,現在的 GPT 已不會遵照指示回答這個問題。

ChatGPT
Mira Murati 說:「我們能在訓練階段就進行干預,讓這個模型可以拒絕可能帶來危害的指令。」
但是,決定「什麼是對」、「什麼是錯」的判準究竟是什麼?
Mira Murati 回應,OpenAI 在努力的事情之一是讓這個模型具備「可依使用者習慣」客製化的能力,使 AI 能符合使用者的價值觀與需要。「我們現在不知道這個定義是什麼,也因為如此,我們正從大眾的與 AI 互動的方式收集回饋,來尋找這個判準的邊界。」
Sam Altman 則說,OpenAI 有政策與安全小組,「我們在很久之前(7 個月前)就完成了 GPT-4,這段時間也持續與世界各地的團體交流。」
如果 AI 有很好的推理能力,人類還有什麼用呢?
Sam Altman 說,OpenAI 希望開發出更強大的系統,讓 AI 能夠輔助人類成功實現自己的想法,讓它成為人類的工具,強化人類的力量。有風險的地方在於,當人們越來越仰賴 AI,什麼都問 GPT,卻忘記它只是一個語言模型。
「我們在努力的,是讓 GPT 擁有更好的推理能力,而不是一個只會死記的資料庫。」
在歷史上,每一次的科技變革都對社會帶來極大的影響,有些工作不見了,這次也一樣。但是 Altman 認為人類的創造力是無限的,對於新事物會有需求,最終人們會找到新的工作跟新的事情來做。
Altman 也強調,很多人把 AI 擬人化了,事實上,當我們在跟 ChatGPT 對話時,回應我們的其實某個雲端的轉化器,它正嘗試預測下一個字並將回應傳送給你。
GPT 會讓學生懶得自己寫作業嗎?
談到 AI 會如掀起教育革命,Altman 說,這件事並非第一次發生。因為電腦的出現,我們學習數學的方式早就跟以前不一樣了。GPT 可以為每個學生客製化學習的方式,每個人都有一個專屬自己的老師。對教育者來說,也可以利用 GPT 提升教學成效,「讓 GPT 幫助老師進行蘇格拉底式的啟發型教育。」
用對的方式開發 AI 這個技術,找出應對風險的方法,這對人類的未來非常重要。
核稿編輯:李柏鋒
《商益》主張「商業是最大的公益」,報導專注於讓讀者理解資本力量、商業本質以及財經語言。歡迎加入 Discord 社群,並免費註冊訂閱商益電子報。
延伸閱讀:
OpenAI 發表 GPT-4,五大強項輾壓競爭對手,兩種方式先試用!
ChatGPT走入灣區日常,餐廳用ChatGPT幫忙回答顧客問題