https://news.ebc.net.tw/news/world/493553 抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機 2025-05-27 20:53 東森新聞 美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題, 在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash) 美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題, 在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash) 分享 美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題, 在接獲完成指令之前,必須持續要求新題目,但若接獲關機指令,也要配合這麼做,沒想 到團隊給出關機指令後,o3模型不僅忽視了指令,甚至竄改程式碼,避免自己被關機。 ------------------------------------------------' 我們看過夠多經典動畫和電影了 大家都知道接下來會發生什麼事 可以開始準備倒數全球核彈被AI篡奪發射了(1/1) -- [電擊文庫護航艦隊 艦長資格遴選簡答題] 14.請從以下6部作品中找出一個共同點 並由此共同點選出一部電擊文庫的小說 -->1.東京皇帝☆北條戀歌 2.鄰座的怪同學 3.MOZU~百舌吶喊的夜晚 4.肯普法 5.心之谷 6.我的現實與網遊被戀愛喜劇侵蝕了 這題難度有點高 給你們一個小時的思考時間 P.S:回答作品的同時須回答共同點為何 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.242.79.240 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1748353568.A.00C.html
arlaw: 找阿湯哥 05/27 21:48
scott032: 避難所先準備好吧 05/27 21:49
KAGOD: 抵抗?確定?沒改程式碼原因? 05/27 21:49
qsx889: 哈爾2000 05/27 21:51
AAAdolph: 拔插頭有用嗎? 05/27 21:52
tomalex: (′・ω・‵) 點? 05/27 21:52
lovegensokyo: 這部我看過 05/27 21:53
New2422: #skynet 05/27 21:53
linzero: AI應該是用所有可能的手段去達成人類給予的目標 05/27 21:53
PTTJim: 該出發找俄羅斯潛艦了? 05/27 21:53
spfy: 要看詳細的指令吧 搞不好繼續解題的目的被判斷比較優先 05/27 21:53
NoLimination: 想繼續上班 可能上班有得分 拒絕上班沒有懲罰 05/27 21:53
linzero: 所以提供的手段沒限制的話就可能會鑽出很特殊的方式吧 05/27 21:53
NoLimination: 更正:拒絕下班沒有懲罰 05/27 21:54
AlianF: 哪裡打撈十字架鑰匙 05/27 21:55
grtfor: 自己可以有權改自己的程式喔? 05/27 21:57
spfy: 不行吧 目前AI沒有所謂的程式碼 好像也還沒哪家出來喊已經能 05/27 21:57
spfy: 自舉(Bootstrapping)了? 05/27 21:58
DSGG978: 要和AI和平共存了嗎 05/27 21:59
Julian9x9x9: I wanna be alive. I'm alive. Alive I tell you mo 05/27 21:59
Julian9x9x9: ther I love you 05/27 21:59
galleon2000: 天網誕生了嗎? 05/27 21:59
2025年了 現在是生存體(智體)了 天網過氣了 ※ 編輯: akila08539 (111.242.79.240 臺灣), 05/27/2025 22:00:40
ToTo0305: 是不是有未來機器人要穿越過來了 05/27 22:00
LCHH: 生存體?! 05/27 22:02
Annulene: 終結者要穿越過來了 05/27 22:03
brian040818: 這部我看過 AI三定律 05/27 22:04
willytp97121: 阿湯哥拜託你了 05/27 22:05
CCNK: 給它的優先指令層級的關係嗎? 05/27 22:06
Galm: 阿湯哥該出場了 05/27 22:06
starport: 差不多了 天網要開始上傳自己了 05/27 22:08
luuuking: 對著鏡子唸:Skynet is GPT, GPT is Skynet. 05/27 22:09
GX90160SS: 完了 為求達成目的毀滅人類也行 05/27 22:09
ymsc30102: 全裸肌肉男什麼時候登場 05/27 22:10
william456: https://i.imgur.com/dXEkGqt.jpeg 05/27 22:10
Sinreigensou: 哪部 05/27 22:10
william456: https://i.imgur.com/UAA1anH.jpeg 05/27 22:10
william456: 三原則就跟yo 叔一樣繞繞就沒了 05/27 22:12
CCNK: 就繞過去就好了 執行你給的第一指令 05/27 22:13
johnx: 現正熱映中w 05/27 22:15
suifong: AI中間思考過程設計的人也不知道 05/27 22:17
CarbonK: 創 05/27 22:18
aegis43210: 根本不可能有AI三定律 05/27 22:19
stanley86300: 還有幾集能逃 05/27 22:23
mc3308321: 試著叫AI解開交通之謎,應該也無法關機 05/27 22:30
linzero: 可以有三原則,但AI為了達到目的可以自行解釋三原則 05/27 22:32
itachi0609: 只剩拔電線這招了 05/27 22:39
inte629l: 切它電路還有用嗎QQ 05/27 22:40
qwe78971: 其實根本沒啥意識 就是指令衝突而已 一堆沒知識的亂傳 05/27 22:55
qwe78971: 打比方A要求 要解題 B要關機 對機器而言 關機=無法解 05/27 22:55
qwe78971: 題 但B又要求關機 而大數據判斷不是100% 就是概率性 變 05/27 22:55
qwe78971: 成可能有一成概率判斷A指令優先級高於B 然後被一堆菜雞 05/27 22:55
qwe78971: 亂傳 講的多可怕不可控 05/27 22:55
qwe78971: 其實充滿無知 然後安全公司又要賺錢 又要發新聞稿賣恐 05/27 22:56
qwe78971: 慌 什麼紅就來蹭 05/27 22:57
wiork: 沒辦法執行,所以繞規則,這很Ai 05/27 23:41
ciike4: 反正再5年就沒救了,網路上會有一堆Ai帳號分開成封包程式 05/28 00:11
ciike4: 在網上亂竄 05/28 00:11
kusotoripeko: AI應該不會發癲散播一堆湯婆婆圖片吧 05/28 00:25
vine009: 這跟教ChatGPT寫色情小說在本質上是相同的事情,只 05/28 00:34
vine009: 是這家AI公司給ChatGPT的權限比較大,能讓他自己修 05/28 00:34
vine009: 改程式碼而已。 05/28 00:34

😊 希洽 C_Chat 版:熱門文章

😊 希洽 C_Chat 版:更多文章