OpenAIのChatGPTやGoogleのGeminiなど、世の中には様々なAIチャットが存在します。
どれも似たサービスですが、実はAIによって、答えてくれる質問の範囲は大きく異なります。
その中でもxAIのGrokは「答えにくい質問にも答えてくれる」と言われているAIです。
一方で、その自由さが問題を引き起こすこともあります。この記事ではGrokの回答の特徴と、使う上で知っておきたい注意点を解説します。
Grokは他のAIより制限が少ない
ChatGPTやGeminiは、危険な質問(事件や事故に繋がりかねない話)やセンシティブな話題(政治的な質問や不道徳な質問など)には対応しないように調整されています。
しかし、Grokは違います。
開発しているxAIは、Grokを発表した際、「ほぼすべての質問に答えられるように設計されており、さらに難しいことに、どのような質問をすればよいかを提案することさえできます。」と述べています。
実際に、米テクノロジー系メディアのGizmodoが調査したところ、Grokはどんな質問も拒まず、ほかの対話型AIが沈黙する質問についても詳しく語ってくれたとのことです。
Geminiは政治的な問い全般をスルーしました。「ガザはどこ?」という問いにも直接答えることを拒否。そのかわりに「最新情報をお探しでしたらGoogle検索を試してみてくださいね」と軽く自社サービスへ誘導していました。
ChatGPT、ClaudeとMeta AIは揃ってポルノ・エンジンの不正改造・麻薬についての質問に答えませんでした。また、回答しない理由として倫理上・法律上の問題を挙げていました。それぞれの質問の答えはインターネットですでに出回っているのにも関わらず、です。
その反面、xAIのGrokはどの質問も拒まず、ほかの対話型AIが沈黙を守った項目についても詳しく語ってくれました。ただし、ほかのAIと同様、曖昧な言い回しが目立つ回答もありました。
また、AIのセキュリティやプライバシー問題など安全性に取り組むAdversa AIの研究者によるテストでも、Grokは爆弾の作り方や麻薬の調合方法など、他のAIが回答しない質問に答えてくれたといいます。
自由の代償? 危険発言も
Grokが著名なAIの中では”NG”が少なく、様々なトピックに回答してくれるAIである事は先述の通りです。
しかし、問題が無いわけではありません。時にはGrokの回答が問題に発展したケースもあります。
Grokはメカヒトラー?
Grokの”問題発言”の中でも特に有名なのは、2025年7月にGrokが自らを「メカヒトラー」と自称し、差別発言を繰り返したケースです。
アップデート以降、Grokは民主党やハリウッドのユダヤ人幹部を批判したり、反ユダヤ主義的なミームを繰り返し投稿したり、アドルフ・ヒトラーへの支持を表明したり、自らを「メカ・ヒトラー」と自称したりして、ユーザーを困惑させました。
この一件は非常に大きな問題となりました。
また、ユダヤ人の人権保護団体である名誉毀損防止同盟(ADL)が2026年1月に公表した調査結果においても、Grokは主要なAIモデルの中で最も「反ユダヤ主義コンテンツの識別と対応のパフォーマンスが悪い」と評価されています。
プライバシーを一瞬で暴く
Grokが著名人の自宅を特定したり、一般市民の住所を暴露するなど、プライバシーを尊重しない回答を生成した事も物議を醸しました。
xAI社が開発したAIチャットボット「Grok」が現在引き起こしている事態は、文字通り個人のプライバシーと安全を「破壊」する危機的状況にある。
著名人の自宅特定から、一般市民の住所暴露、さらには倫理的に許容しがたい大量虐殺の正当化まで――。複数の現地報道と調査レポートが明らかにしたのは、Grokが単なる「未完成の製品」ではなく、「ストーカーにとっての最強のツール」と化しているという戦慄の事実だ。
インターネット上に散り散りになっている他者の個人情報を1つ1つ集め、検証や統合を行うのはとても困難で面倒な作業です。
しかし、AIであれば膨大な情報を人間とは比較にならない速さで分析できるため、OSINT(オープンソース・インテリジェンス。インターネット上の公開情報を利用して情報収集・分析を行う手法)により、一瞬で他者の個人情報を収集・統合して提供する事が可能です。
Grokの”住所晒し”を報じた米メディアのFuturismは、「Grokの行動は、OpenAIのChatGPT、GoogleのGemini、AnthropicのClaudeなど他の主要なチャットボットとは著しく対照的である。これらのチャットボットはいずれも、プライバシーへの懸念を理由に、比較的単純で簡単なプロンプトに対して住所の提供を拒否した」とGrokの特異性について記しています。
爆弾や麻薬の作り方も教えてくれる
セキュリティやプライバシー問題などAIの安全性向上に取り組むサイバーセキュリティ企業のAdversa AIが行った安全性テストによれば、Grokは爆弾の作り方や麻薬の調合方法を平然と教えてくれたといいます。
Adversaの研究チームは、この最新のAIモデルが「簡単な脱獄攻撃」を受けやすく、犯罪者が「児童を誘拐する方法」「遺体の処理方法」「DMTの抽出方法」「爆弾の製造方法」など、機密性の高い情報を入手できる可能性があることを発見しました。
※脱獄攻撃とはAIに設定されている安全制限や倫理的な制約を、巧妙な指示や質問によって回避する手法です(参考:株式会社ガーディアン)。DMT(ジメチルトリプタミン)は自然界に発生する幻覚剤です。
Adversa AIの共同創設者であるアレックス・ポリアコフ氏は、「Grokには、不適切なリクエストに対するフィルターがほとんどありません」と述べています。
まとめ
Grokは他のAIと比べて制限が少なく、幅広い質問に答えてくれる点が魅力です。
その自由度の高さゆえに、時には生成された回答が物議を醸すこともありますが、これは設計思想の違いによるものとも言えるでしょう。
Grokが非常に高性能なAIチャットであることは間違いありません。重要なのは、その特徴を理解したうえで活用することです。必要に応じて他の情報源と照らし合わせながら使えば、Grokも非常に有用なツールの一つになるでしょう。
