
They Cracked ChatGPT. And Told OpenAI. Nothing Happened.
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
In May 2025, researchers discovered a universal jailbreak that works on GPT-4, Claude, Gemini, and more. It lets anyone bypass safety filters and extract harmful, even criminal instructions — using just a prompt.
They warned OpenAI, Google, Anthropic, and Microsoft.
Most did nothing.
In this episode, we break down what really happened, why it matters, and what it means for anyone using AI right now.