【前OpenAI安全主管指出OpenAI將安全置於新穎 忽視製造出比人類更聰明的機器可能所帶來的威脅 】

綜合外媒報導,近日,人工智慧領頭羊「OpenAI」的首席科學家和安全專家相繼辭職,引發業界關注。前 「OpenAI」 AI安全主管萊克(Jan Leike)於5月17日表示,目前OpenAI的公司高層方針過於注重新穎性,而忽視了安全問題,這使他無法認同並決定辭職。

OpenAI安全研究團隊「超級對齊」(Superalignment)的主管萊克(Jan Leike),繼聯合創辦人暨首席科學家蘇茨克(Ilya Sutskever)後,於5月17日也宣布辭職。萊克在社群平台上發表聲明,表示他加入OpenAI的初衷是為了研究AI安全,但與公司高層在核心價值觀上的分歧已久,由其是公司將新穎性置於安全之上,令他無法接受。

萊克強調,研發次世代AI模型時應該將安全和社會影響放在首位,因為創造出比人類更聰明的機器本身就是一件極具風險的事情。他認為,OpenAI有義務代表全人類擔起這一責任,成為一個「安全第一」的通用人工智慧(AGI)公司。

對此,OpenAI執行長奧特曼(Sam Altman)回應稱,非常感謝萊克過去對公司的貢獻,對其離職感到非常不捨,同時認同其觀點。奧特曼表示,OpenAI還有很多需要做的事情,並承諾未來將撰文詳細說明有關AI安全的研究。據悉,OpenAI已經證實,在萊克離職後,他所領銜的AI安全研究團隊「超級對齊」已經解散。

Previous article【Sony Music Group發信給700多間AI技術公司和串流平台 警告不要未經明確許可使用該公司旗下內容用於訓練AI模型】
Next article【美國加州北部大學學生在學費和租金暴漲生活費高昂的情況下 開始被迫住在車上降低學位的成本負擔】