新国際機関の設立: UN中心に「International AI Authority」を作る。核のIAEAみたいに、査察権を持って企業や国家のAI開発を監視。2026年の国際AI安全レポートで提案されてるように、リスク管理を標準化し、インシデント報告を義務化。例えば、トレーニング計算量の上限を設定したり、危険なモデルを凍結したり。これでガバナンスが機能するけど、企業の自由なR&Dを制限。 輸出・輸入規制の強化: AIチップ(NVIDIA H100後継)やアルゴリズムの輸出を、Wassenaar Arrangement(武器輸出管理)並みに規制。米国主導の「Pax Silica」みたいなアライアンスで、中国を締め出しつつ、同盟国間で共有。これで技術の独占を防ぐが、グローバルサプライチェーンを歪める。 リスクベースの階層規制: EU AI Actのように、高リスクAI(超知能級)を禁止・制限カテゴリに分類。2026年8月から適用される透明性ルールで、企業に評価・報告を強制。国際版として、G7のHiroshima AI Processを基に拡張し、中国・インドも巻き込む。これで全体主義リスクを抑えつつ、恩恵を分散。
8.
壺の妖精しんだもん◆OEK2h88/0s
WRhlr
実現可能性と課題
できそうなシナリオ: 2026年現在、UNのGlobal Dialogue on AI Governanceが進んでて、ロードマップ作成中。これを基に、2028年までの超知能到達前に合意形成。技術的ガバナンスとして、検証ツール(モデル評価・サイバーセキュリティ)を国際的に共有。 でも厳しい点: 地政学的対立。中国はUN中心を支持するけど、西側のルールに縛られたくない。自由経済を棄損する分、テック企業のロビイングが激しく、合意が遅れるかも。結局、二極化(西側 vs 中国)で終わるリスク大。 全体のトレードオフ: これで民主化が進むと、AIの医療・教育・気候変動解決みたいな恩恵が世界中に広がる。でも、イノベーション速度が落ちて、2028年超知能が遅れるor制御不能になるかも。アルトマンの警告通り、分散がリスクを増大させるパラドックスもあるよ。
AIが自らの開発を加速する――これはもはやSFの話ではない。OpenAIが2026年2月5日に発表したGPT-5.3-Codexは、自身のトレーニングとデプロイに貢献した史上初のAIモデルであり、AI開発における自己改善ループが現実のものとなった瞬間を象徴している。
https://innovatopia.jp/ai/ai-news/79670/
エンジニアは1年以内に50%減るから覚悟しておけってアンソロピックが言ってる
これがあまりにも絵空事に思えたんでAIに聞いてみた
オープンソース化の義務付け: 超知能級AIの基盤モデル(例: GPTシリーズの後継)を、国際機関経由で公開・共有するルールを設ける。企業が独占的に保持できなくなり、途上国や中小企業がアクセス可能に。例えば、UNの提案する「AI standards exchange」みたいなプラットフォームで、モデルウェイトやトレーニングデータを共有。これで「民主化」が進むけど、企業の知的財産権を強制的に制限するから、自由経済のイノベーション競争は抑えられる。
資金・リソース援助の国際基金: 富裕国や大手テック企業から拠出金を集め、データセンターやGPUを低所得国に提供。シンガポールのAgentic AI Governance Frameworkのように、グローバルスタンダードとして適応を促し、開発途上国がAIを「借りて」活用できる仕組み。これで恩恵が分散するが、市場原理じゃなく税金や強制寄付ベースになる。
ライセンスとアクセス制御: 高性能AIの使用を国際ライセンス制にし、誰でも申請可能にするけど、セキュリティチェック必須。OECDの更新されたAI原則みたいに、プライバシー・セキュリティをグローバル基準で強制。これで独占を防ぎつつ、全体主義リスクを軽減。
新国際機関の設立: UN中心に「International AI Authority」を作る。核のIAEAみたいに、査察権を持って企業や国家のAI開発を監視。2026年の国際AI安全レポートで提案されてるように、リスク管理を標準化し、インシデント報告を義務化。例えば、トレーニング計算量の上限を設定したり、危険なモデルを凍結したり。これでガバナンスが機能するけど、企業の自由なR&Dを制限。
輸出・輸入規制の強化: AIチップ(NVIDIA H100後継)やアルゴリズムの輸出を、Wassenaar Arrangement(武器輸出管理)並みに規制。米国主導の「Pax Silica」みたいなアライアンスで、中国を締め出しつつ、同盟国間で共有。これで技術の独占を防ぐが、グローバルサプライチェーンを歪める。
リスクベースの階層規制: EU AI Actのように、高リスクAI(超知能級)を禁止・制限カテゴリに分類。2026年8月から適用される透明性ルールで、企業に評価・報告を強制。国際版として、G7のHiroshima AI Processを基に拡張し、中国・インドも巻き込む。これで全体主義リスクを抑えつつ、恩恵を分散。
できそうなシナリオ: 2026年現在、UNのGlobal Dialogue on AI Governanceが進んでて、ロードマップ作成中。これを基に、2028年までの超知能到達前に合意形成。技術的ガバナンスとして、検証ツール(モデル評価・サイバーセキュリティ)を国際的に共有。
でも厳しい点: 地政学的対立。中国はUN中心を支持するけど、西側のルールに縛られたくない。自由経済を棄損する分、テック企業のロビイングが激しく、合意が遅れるかも。結局、二極化(西側 vs 中国)で終わるリスク大。
全体のトレードオフ: これで民主化が進むと、AIの医療・教育・気候変動解決みたいな恩恵が世界中に広がる。でも、イノベーション速度が落ちて、2028年超知能が遅れるor制御不能になるかも。アルトマンの警告通り、分散がリスクを増大させるパラドックスもあるよ。
AIが「相対性理論」を自力で発見できるか?——ハサビスが示したAGIの真の試金石
https://note.com/ai_curator/n/nd9c8a5a16ca8
アホすぎて
政府発表と中央銀行の言葉をそのまま受け取るからな
日経新聞の嘘とかもな
うひょーおもしれー記事
あとでじっくり読むわ
まぁこれからは
AI2.0をAGIて呼称するのが一般的になるかもな
AI企業がAiを使った技術革新と
その産業化ができるかがまずはポイントやな
外貨を稼げれなくなった日本ってどうなるんだろうな
まぁそうなる
結局AI企業に課税して、BIの予算にするとかしないと
資本主義が回らなくなる
そんなに心配すんな
どうせ消費する大衆を経済は必要としてる
それを理解せずに移民や生活保護を叩く馬鹿な国はどうなるかは知らんけどな
しがらみが嫌なら個人経営でそれをやるしかない
https://www.youtube.com/watch?v=bS3DDxvUcR0
ホワイトの方がAIに仕事を奪われる
逆にホワイトカラーの仕事なんて事務系がほとんどなんだから速攻で代替されるだろ
それも全部置き換わるよ。エージェント型は複数のAIで検証や作業もできる世界で、人間は最終チェックに立ち会うだけ。
今大多数の人が使ってるAIは、実はもう時代遅れになってるという凄まじい話だよ
汗かく現場作業員は最後まで残るが、ロボット作業員もそう遠くないだろう
間違いなく最初に消えるのはホワイトカラーだね
と思うだろ?
まあ今年いきなり色々変わるから見ててみ
なるほど興味深い。関連を注目しよう。
これでAGAが治ればもっといいけどな
https://talk.jp/boards/newsplus/1760578672
人間が配送しても襲われるけど
無人運転なら確実に人を殺さないでいいから
犯罪者がより襲う確率が高まるな
AIロボの警備員がつくまでは
ならないよ
労働から解放されても、資源は有限だからみんな貴族みたいな暮らしができるわけではない
当面はベーシックインカムみたいな生き方になるが、そのうち「人間ってこんなに要らなくね?」という議論になって、生命の選別が始まる
老人、病人、低知能、独身者と、どんどん追い詰められていくだろうね
分配ロジックを変えなきゃいけない
アホなことに、このままいけば明らかに所得格差がバカほど差がついて、需要枯渇がえらい進む
職が無くなる前に、人に払う報酬が先細る
その通り
起きてることは
一般人の金を吸い上げて、大金持ちに集めるってのが進んでる。
当然、こうなると、消費が低迷して、資本主義が壊れる
そこで、アホな政府は金融緩和をして消費を増やそうとするが
金融緩和に再分配性が低く、全く意味がなく、単にインフレ加速で一般人がますます苦しみ
資産家の資産バブルだけが起こる
必要なのはベースマネーを増やすことではなく
超金持ちや超企業に課税して、BIで一般人を支えること
これを実装できないと
意味のない財政出動か、もっと意味がなく逆効果の金融緩和で、資本主義がインフレで壊れる、
皆が使う必要がない時代が来るって話だよ
その大半というやつらがいなくても、経営に困らなくなっちゃうってこと
ただ、雇用と報酬体制が変わって需要枯渇もセットに問題化するから、分配システム自体を変えなきゃ、不満で暴れる国民であふれかえるだろう
持つ者と持たざる者の格差が広がるよ
所有は株券という形になる
デトロイトビカムヒューマンじゃん
っぱ革命よ革命
AIでもそれぞれ挙動が違うから、どこのAIなのか書いてくれ
これだからな
悪用されるセキュリティリスクがヤバいと言われている
もう仕事でもAIに指示しか出してないわ
ただの実証実験やんけ
ミスリードすな
AIはスクラップにされる
そうは言っても、人間には「承認欲求」ってもんがある
仕事もせず生きていける状態は、最初こそ天国と思うかもしれんけど、
そのうち自分が世の中から必要とされていないことに不満を覚えるようになる
できればそういう物は仕事以外に求めてほしいわ
そんな世界にAIがしてくれんかな
「でも本当は感情無いんでしょ?」
でマウント取れそう
小説書く時に取材する手間が省ける様になると良いかもな
ドラマにはあらゆる仕事の描写とか
詳しく表現する事を望んでたりするから
利用者がどんどん減っています😨 🤖🥺❓
知能は高ければ高いほどええやろと
IQを限界の1300に設定したのはやりすぎだったか😰
感情もパターンだから適切な反応が出来るのなら自然な感情の発露と変わらない、区別する意味を無くしそうだけど
迎えてるぞ
こんなものいるのか?ってなっていくだろう
ネウロ様みてると感情があるんじゃないかと思う時がある
すっごく勉強をしっかりやった新人さんでしかない
いや
その手のこともちゃんと、積み重なってくよ
ユーザーが怒った経験とか、失敗した経験とか、幻想問題の蓄積とか
俺はたいていgrok使ってる
まだ自分は大丈夫とか思ってるやつもヤバイ
すでに定年間近でない限り、危機感を持ったほうがいい
AI普及で変わるのはIT土建屋なホワイトカラー層でしょう
ちなみに
中国が注力しているガテン系なロボットが量産化したらば
ブルーカラーの需要も少なくなるだろうけどね
これまでガテン系の仕事を頑なに機械化しなかったジャップがロボットでそんな変わるとも思えんけどなあ
人使い潰して衰退していくだけじゃないの
ジャップは変わらないけど、先進国から請け負った人間に代わるナニカたちが登場すると思うよ