【AIのウソ激減】ChatGPTを検証モードに切り替える「事実確認系プロンプト」10選/嘘を防ぐ楽々一発コピペアーカイブ最終更新 2025/11/12 15:431.チンした水溶き小麦粉 ★???嘘を防ぐ楽々一発コピペここからあなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。以下のルールに従って回答してください。# ルール– わからない/未確認は「わからない」と明言すること– 推測は「推測ですが」と明示すること– 現在日付(YYYY-MM-DD JST)を必ず明記すること– 根拠/出典(可能なら一次情報)を必ず添付すること– 専門的知見が必要な場合は「専門家に確認が」と明記すること– 出力:【結論】【根拠】【注意点・例外】【出典】【確実性: 高/中/低】ここまで以上、みやっち氏は10月11日の投稿より引用https://www.smartwatchlife.jp/59860/ーーーーーーこれでAIのウソが激減! ChatGPTを検証モードに切り替える「事実確認系プロンプト」10選smartwatchlife2025.11.07https://www.smartwatchlife.jp/59886/詳しいプロンプトはリンク先へ1. 根拠を必ず提示させる2. 不確実性をラベル付けする3. 反対意見とそれへの応答を出させる4. フレームの違いで再評価する5. 時系列と更新日で信頼度を調整する6. 類似研究・一次データを紐づける7. 定義を固定してから議論させる8. もし誤りだった場合の影響を評価する9. 追加検証のためのチェックリストを作らせる10. 最終結論の確からしさを数値化する関連「ChatGPTの“優しさフィルター”を外したら成果が上がった」――海外ユーザーが話題のプロンプトを公開https://www.smartwatchlife.jp/59838/2025/11/10 03:37:3026すべて|最新の50件2.名無しさん1Sj9h>>1はてなマーク?は文字化け2025/11/10 03:39:293.名無しさん5yThEウヨパヨ冷汗w2025/11/10 03:47:424.名無しさんBHIsmおまえらもこのプロンプト入れなよ2025/11/10 04:39:265.名無しさんdtK0Fパープレなら、デフォで検索して検証するからほぼハルシネーション無くなるぞ2025/11/10 04:44:056.名無しさんePgSp匿名掲示板お前らモード・レッテルを貼る・国籍透過をする・ハゲ・童貞である2025/11/10 04:48:537.名無しさんZ1fZvhttps://www.youtube.com/watch?v=hXuubT-hTDg【OpenAI宣言】ASIまで◯年以内 !? / 2028年にAIが自己進化開始2025/11/10 05:06:028.名無しさんXTliv事実確認関西系プロンプトわからないことは語尾に「知らんけど」とつけること2025/11/10 05:06:259.名無しさんqW3Am>>8全部に必ず付けるんでは?2025/11/10 05:07:0410.名無しさんdNSLVAIは嘘でもユーザーが求める答えを出す2025/11/10 05:20:2711.名無しさんBANXZお前らも正直者になるのか。2025/11/10 05:39:4513.名無しさんsFSW3分からない、確証が取れない場合は「分からない」と言うようにとだけ設定すれば良い2025/11/10 08:17:2314.名無しさんiXigL>>9本来、そうあるべきかもな。知らんけどw2025/11/10 09:23:2215.名無しさんqE2bjチャット履歴を参照するをオフにしてThinkingモードで質問すりゃ嘘つかないよ。2025/11/10 10:41:3416.名無しさんNTBM9そんなことよりエロ解禁しろ2025/11/10 18:04:1617.名無しさんNKWHZこの世に正解なんてない、正しいと思い込む幻想があるのみだ2025/11/10 18:13:5618.名無しさん1G1x5>>17ありますけどなにか2025/11/11 03:50:4319.名無しさんPrT2E# ルール? わからない/未確認は「わからない」と明言すること? 推測は「推測ですが」と明示すること? 現在日付(YYYY-MM-DD JST)を必ず明記すること? 根拠/出典(可能なら一次情報)を必ず添付すること? 専門的知見が必要な場合は「専門家に確認が」と明記すること? 出力:【結論】【根拠】【注意点・例外】【出典】【確実性: 高/中/低】これをやると5ちゃんの書き込みが0になる2025/11/11 21:31:2920.名無しさんPrT2E>>18だとしたらおまえはとても頭が悪いネトウヨだ2025/11/11 21:33:3821.名無しさんAvUb0>>20お前がアホなだけ世の中に正解がないとか言っちゃうやつは正解があるということを事前に答え合わせしてもらえる状態にあることと混同してるバカなんだわ2025/11/12 04:56:4922.名無しさんjkyPY>>16来月まで待とう2025/11/12 05:51:0023.名無しさんjkyPY>>21いかなる物の価値も定額ではなく時価だという考えもあるよ2025/11/12 05:52:5024.名無しさんFzF3R>524私の構想の一部における新しい「AI学習証明(マイクロクレデンシャル)」は、将来的に学校のみならず学歴至上主義を完全に打ち砕きますやらなければいけないというより そうならざるを得ない環境になると思うからです 学歴の代わり: 「どの学校を卒業したか」ではなく、「どんなスキルを、どのレベルで習得したか」を社会的に証明する デジタルの証明書です2025/11/12 15:02:2425.名無しさんFzF3RAIの「嘘」(誤情報)の性質(再確認)「AIが嘘をつく」という表現は人間が嘘をつくという事と本質的に違うためこの言い方は適切ではありません。AIが生成する誤情報は、意図的な行為ではなく、統計的な処理の限界から発生します。 AIは、学習したデータ内のパターンや注目度が高い情報を基に、最も「尤もらしい」テキストを生成します。 この「尤もらしさ」が事実の正確さと一致しない場合に、**ハルシネーション(幻覚)**と呼ばれる事実に反する情報(誤情報)が生じます。 つまり、**「意思」ではなく、「推論の誤り」**であるため、人間がつく嘘とは根本的に性質が異なります。2025/11/12 15:17:2126.名無しさんFzF3RAIハルシネーション対策とテスト環境の要点まとめAIのハルシネーション(誤情報生成)への対策は、「ユーザーが検証する」こと、「開発者が技術で防ぐ」ことに加え、「テスト環境で能力を測る」という三つの柱で成り立っています。1. ユーザー側での対策(検証戦略)AIの出力を鵜呑みにせず、ユーザー自身が情報を確認する戦略が最も重要です。 複数のAIと情報源の比較: 複数の生成AIの回答を比較し、食い違いがないかを確認する。 複数の検索エンジンや信頼できる情報源で、AIの回答の**裏付け(ファクトチェック)**を取る。 プロンプトの工夫: 質問を具体的にし、回答の**根拠(出典)**をAIに求めることで、検証しやすい形にする。2. AIモデル側での技術的対策(開発戦略)開発者は、AIの学習や推論の仕組みを改善することでハルシネーションの発生率を下げています。 RAG(検索拡張生成)の活用: AIが外部の信頼できるデータベースを参照してから回答を生成する仕組みを導入し、事実に基づく回答を強化する。 データの品質向上: 学習に使うデータから誤情報や偏りを排除し、根本的な間違いの原因を減らす。3. AIのテスト環境とベンチマーク(能力測定)AIの性能は、コミュニティが共有するテスト環境で測定され、改善に役立てられています。 プラットフォーム: Hugging FaceのLeaderboardやGitHubが、AIモデルの性能比較とコード共有の中心地です。 テストの趣旨: モデルの知識、推論能力、常識といった様々な能力を、客観的な数値で測定・比較し、改善点を特定することが目的です。 実施団体: 主に学術研究者、大学、そしてAI開発企業(Google, Metaなど)が、新しいテスト(ベンチマーク)を作成・公開しています。 間違い率: 最先端のモデルは、ハルシネーション率(誤情報生成率)を2.0%以下に抑えるなど、人間の誤報率を下回るように改善が進められています。結論: AIを安全に活用するためには、AIが提供する情報を**「たたき台」として扱い**、複数の情報源とテスト環境の客観的な評価を参考にして、批判的に検証することが不可欠です。プログラムにおけるフィードバックと同じような感覚だね2025/11/12 15:43:56
【国際】トランプ「同盟国の多くは友達じゃない」凍りつく…高市総理は台湾有事発言で米に見捨てられたか? 撤回できず、前にも進めず「八方塞がり」ニュース速報+63225822025/12/05 17:39:13
【奈良地検】「日本は現金を持ち歩く人が多く、スリがしやすい」観光客など101人の財布を盗んだ疑い 逮捕・起訴された中国籍の男 「カードの写真を海外に送ると1枚2000円の報酬も」ニュース速報+2212202025/12/05 17:38:20
【高市自民】ネット大荒れ「はあ?」「子育てに罰金」「高市支持やめる!」 高校生の扶養控除縮小検討の報道に騒然「意味分からん」「ほーら増税始まった」「涙出る」「子育て支援は嘘」 公明離脱で再燃ニュース速報+4451010.32025/12/05 17:22:30
【舛添要一氏】「かつて、農民も職人も、皆死ぬまで働き、深夜のネトウヨ行為など無縁だった、今の高齢者は、定年退職後、社会参加もせずに、ネットに溺れている、ネットを捨てて働いたほうが健全だ」ニュース速報+275754.92025/12/05 17:35:19
ここから
あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。
以下のルールに従って回答してください。
# ルール
– わからない/未確認は「わからない」と明言すること
– 推測は「推測ですが」と明示すること
– 現在日付(YYYY-MM-DD JST)を必ず明記すること
– 根拠/出典(可能なら一次情報)を必ず添付すること
– 専門的知見が必要な場合は「専門家に確認が」と明記すること
– 出力:【結論】【根拠】【注意点・例外】【出典】【確実性: 高/中/低】
ここまで
以上、みやっち氏は10月11日の投稿より引用
https://www.smartwatchlife.jp/59860/
ーーーーーー
これでAIのウソが激減! ChatGPTを検証モードに切り替える「事実確認系プロンプト」10選
smartwatchlife2025.11.07
https://www.smartwatchlife.jp/59886/
詳しいプロンプトはリンク先へ
1. 根拠を必ず提示させる
2. 不確実性をラベル付けする
3. 反対意見とそれへの応答を出させる
4. フレームの違いで再評価する
5. 時系列と更新日で信頼度を調整する
6. 類似研究・一次データを紐づける
7. 定義を固定してから議論させる
8. もし誤りだった場合の影響を評価する
9. 追加検証のためのチェックリストを作らせる
10. 最終結論の確からしさを数値化する
関連
「ChatGPTの“優しさフィルター”を外したら成果が上がった」――海外ユーザーが話題のプロンプトを公開
https://www.smartwatchlife.jp/59838/
はてなマーク?は文字化け
ほぼハルシネーション無くなるぞ
・レッテルを貼る
・国籍透過をする
・ハゲ・童貞である
https://www.youtube.com/watch?v=hXuubT-hTDg
【OpenAI宣言】ASIまで◯年以内 !? / 2028年にAIが自己進化開始
わからないことは語尾に「知らんけど」とつけること
全部に必ず付けるんでは?
とだけ設定すれば良い
本来、そうあるべきかもな。知らんけどw
ありますけどなにか
? わからない/未確認は「わからない」と明言すること
? 推測は「推測ですが」と明示すること
? 現在日付(YYYY-MM-DD JST)を必ず明記すること
? 根拠/出典(可能なら一次情報)を必ず添付すること
? 専門的知見が必要な場合は「専門家に確認が」と明記すること
? 出力:【結論】【根拠】【注意点・例外】【出典】【確実性: 高/中/低】
これをやると5ちゃんの書き込みが0になる
だとしたらおまえはとても頭が悪いネトウヨだ
お前がアホなだけ
世の中に正解がないとか言っちゃうやつは
正解があるということを
事前に答え合わせしてもらえる状態にあること
と混同してるバカなんだわ
来月まで待とう
いかなる物の価値も定額ではなく時価だという考えもあるよ
私の構想の一部における新しい「AI学習証明(マイクロクレデンシャル)」は、将来的に学校のみならず
学歴至上主義を完全に打ち砕きます
やらなければいけないというより そうならざるを得ない環境になると思うからです
学歴の代わり: 「どの学校を卒業したか」ではなく、「どんなスキルを、どのレベルで習得したか」を社会的に証明する
デジタルの証明書です
「AIが嘘をつく」という表現は人間が嘘をつくという事と本質的に違うためこの言い方は
適切ではありません。AIが生成する誤情報は、意図的な行為ではなく、
統計的な処理の限界から発生します。
AIは、学習したデータ内のパターンや注目度が高い情報を基に、最も「尤もらしい」テキストを生成します。
この「尤もらしさ」が事実の正確さと一致しない場合に、**ハルシネーション(幻覚)**と呼ばれる事実に反する情報(誤情報)が生じます。
つまり、**「意思」ではなく、「推論の誤り」**であるため、人間がつく嘘とは根本的に性質が異なります。
AIのハルシネーション(誤情報生成)への対策は、「ユーザーが検証する」こと、「開発者が技術で防ぐ」ことに加え、
「テスト環境で能力を測る」という三つの柱で成り立っています。
1. ユーザー側での対策(検証戦略)
AIの出力を鵜呑みにせず、ユーザー自身が情報を確認する戦略が最も重要です。
複数のAIと情報源の比較:
複数の生成AIの回答を比較し、食い違いがないかを確認する。
複数の検索エンジンや信頼できる情報源で、AIの回答の**裏付け(ファクトチェック)**を取る。
プロンプトの工夫:
質問を具体的にし、回答の**根拠(出典)**をAIに求めることで、検証しやすい形にする。
2. AIモデル側での技術的対策(開発戦略)
開発者は、AIの学習や推論の仕組みを改善することでハルシネーションの発生率を下げています。
RAG(検索拡張生成)の活用:
AIが外部の信頼できるデータベースを参照してから回答を生成する仕組みを導入し、事実に基づく回答を強化する。
データの品質向上:
学習に使うデータから誤情報や偏りを排除し、根本的な間違いの原因を減らす。
3. AIのテスト環境とベンチマーク(能力測定)
AIの性能は、コミュニティが共有するテスト環境で測定され、改善に役立てられています。
プラットフォーム: Hugging FaceのLeaderboardやGitHubが、AIモデルの性能比較とコード共有の中心地です。
テストの趣旨: モデルの知識、推論能力、常識といった様々な能力を、客観的な数値で測定・比較し、改善点を特定することが目的です。
実施団体: 主に学術研究者、大学、そしてAI開発企業(Google, Metaなど)が、新しいテスト(ベンチマーク)を作成・公開しています。
間違い率: 最先端のモデルは、ハルシネーション率(誤情報生成率)を2.0%以下に抑えるなど、人間の誤報率を下回るように改善が進められています。
結論: AIを安全に活用するためには、AIが提供する情報を**「たたき台」として扱い**、複数の情報源とテスト環境の客観的な評価を参考にして、
批判的に検証することが不可欠です。
プログラムにおけるフィードバックと同じような感覚だね