以下の暦は全て西暦に変換しています。 日本の旧暦 / 中国の旧暦 / ユダヤ暦 / ヒジュラ暦 / ソビエト連邦暦 / フランス革命暦
≈は「頃」を意味しています。
ディープステートの傀儡を養成する機関である
| 年月日 | 出来事 | |||
|---|---|---|---|---|
| 2,025 | 1 | 17 |
HHSが、mRNAベースの鳥インフルエンザワクチン及び其の他インフルエンザワクチンの開発を促進する為に、モデルナ社が以下の機関から、590,000,000ドルの資金提供を受けたと発表する。 ①HHS ②ASPR ③BARDA 此の契約は、RRPVを通じて締結された。 |
|
| 2,025 | 1 | 20 | ディープシーク社が、AIチャットボット「DeepSeek」をローンチする。其の後僅か1週間でアプリのダウンロード数が2,600,000回に達し、アップル社とグーグル社のアプリストアでは、ランキングの上位にランクインした。 | |
| 2,025 | 1 | 21 |
以下が、リプロダクティブ・ヘルス製品の供給体制の強化を意図し、資金パートナーシップの拡大を発表する。 ①UNFPA ②ビル&メリンダ・ゲイツ財団 ビル&メリンダ・ゲイツ財団は、UNFPAに7,000,000ドルの追加の資金提供を行う事で、今後4年間に渡るサプライチェーンのイノベーションを推進する事となった。 |
|
| 2,025 | 1 | 24 | 厚労省が、エボラウイルス等の危険度が最も高い病原体を扱う特定一種病原体等所持施設として、BSL-4施設である長崎大学高度感染症研究センターを指定する。 | |
| 2,025 | 1 | 25 |
ケンブリッジのERA(存在リスク同盟)のフェローシップ参加者であるセヴェリン・フィールドが、arXivに論文「何故専門家は存在リスクとP(doom)に就いて意見が分かれるのか?AI専門家の調査」を投稿する。以下の主旨の内容であった。 ①目的 AI専門家の間でAGIの存在リスクとP(doom)に対する見解が極端に分かれる原因を調査する。例えば、ローマン・ヤンポルスキーはP(doom)=99%、ヤン・ルカンは略0%と推定している。 ②方法 111名のAI専門家(学術66%・産業16%・AIセーフティ研究者9%)にアンケート調査を行った。AIセーフティに関する文章をランダムに1つ読む前後での、AIセーフティ概念への習熟度・以下の9つの信念に対する同意度の回答変化を測定した。回答は5段階リッカート尺度(強く反対・反対・中立・同意・強く同意)で行われた。 ❶優先度に関する信念 Ⅰ.AGIはまだ先の話なので、心配するにはまだ早い Ⅱ.技術系AI研究者は壊滅的リスクに関心を持つべきである Ⅲ.壊滅的リスクは概して誇張されている ❷技術的信念 Ⅳ.既存のML(機械学習)パラダイムでAGIを生み出せる Ⅴ.AIは何処まで行っても道具にすぎず、自分自身の目的や欲求を持つ事は無い Ⅵ.AIが悪い振る舞いをしたら電源を切れば全て解決する Ⅶ.十分に高度なAIには自己保存や制御の衝動が自発的に出現する ❸其の他 Ⅷ.一部のAIは、現在又は将来、道徳的配慮の対象になり得る Ⅸ.AIセーフティの研究は、屢々重要な進歩を遅らせ、時間の無駄である ③主要な発見 ❶2つの世界観が存在する AIは制御可能なツール派とそうでない派に二分される。前者は、壊滅的リスクは誇張されていると考え、短いAGIのリードタイムを好み、AIセキュリティへの馴染みが薄い。後者は、自己保存欲求が創発すると考え、安全性研究を優先し、理論的安全性概念に精通する。 ❷AI専門家の多くがアライメント研究に不慣れである 以下の用語に対する知識が無い。詰まり、機械学習の専門知識がAIセキュリティの専門知識に直結しない。 Ⅰ.道具的収束(認知率21%) 最終目標が何であれ、其の為に役立つ共通の下位目標を自然に追求する様になる、という理論である。自己保存・資源の獲得・自分自身の停止を阻止する事等が挙げられる。例えば、「チェスに勝つ」でも「気候変動を解決する」でも、電源を切られたら達成出来ないので、どんなAIも自己保存に向かう、という予測である。 Ⅱ.スケーラブル・オーバーサイト(認知率23%) AIが人間より賢くなった場合、人間がAIの行動を監督・評価し続けられるか、という問題である。AIが人間の理解を超える判断をする様になったら、正しいかどうかを人間が判定出来なくなる為、そうなった場合でも機能する監督手法を開発する研究領域である。 Ⅲ.一貫した外挿的意志(認知率8%) AIに、人間の矛盾に満ちた、近視眼的な欲求を其の儘与えるのは危険なので、代わりに、人類がもっと賢く、更に情報を持ち、今よりも時間を掛けて考えたら望んだであろう事を推定して、其れに従わせるべきだという考え方である。 ❸安全性知識の欠如が楽観論と相関する AIセキュリティ概念に不慣れな専門家程、壊滅的リスクを過小評価し、AIが暴走したら電源を切れば良いと考える傾向が有る。逆に、AIセキュリティ概念に精通した人程、壊滅的リスクを深刻に捉える。 ❹合意点も存在する 77%が「技術系AI研究者は壊滅的リスクに関心を持つべき」に同意し、57%が「将来のAIは道徳的配慮の対象になりうる」に同意した。「安全性研究は進歩を遅らせ時間の無駄」に同意したのは僅か17%であった。 ④読書介入の効果 以下3名の文章等を読ませても回答変化は極僅かであった。世界観は堅固で、短い介入では容易には変わらない。 ❶スチュアート・ラッセル ❷アメリカのコンピュータ企業であるサン・マイクロシステムズ社共同創業者ビル・ジョイ ❸オープンAI社で安全性チームに所属していたレオポルド・アッシェンブレナー ⑤結論 AIセーフティへの懐疑の一因は、安全性研究そのものへの不同意ではなく、其の概念的基盤への不慣れに有る。効果的なAIセーフティコミュニケーションは、先ず専門家に対してアライメント研究の基礎概念を普及させる事から始めるべきである。 |
|
| 2,025 | 3 | 9 | 此の日から5日間、テキサス州オースティンにて、音楽・映画・インタラクティブが融合したイベント第38回SXSW(サウス・バイ・サウスウエスト)が開催される。エリーザー・ユドコウスキーは、此のイベントの「AGIが全ての人を殺さない様にする方法」と題されたパネルセッションに登壇し、AI開発を支えるハードウェアの全面的なロックダウンと、先端AI研究の非合法化を改めて訴えた。AGIシステムは既に独立した意思決定能力を持ち始めており、人類には制御する技術が無いと強調した。 | |
| 2,025 | 4 | 1 | 情報流通プラットフォーム対処法が施行される。 | |
| 2,025 | 4 | 1 | 食料供給困難事態対策法が施行される。 | |
| 2,025 | 7 | 11 | ブルッキングス研究所非常勤上級研究員マーク・マッカーシーが「AIによる存在リスクは現実のものなのか―そして私達はどう対処すべきか?」と題した記事を掲載する。マッカーシーは、ヨシュア・ベンジオが自身のブログで、開発者がAIに目標を設定すると、AIが其の達成の為に独自のサブゴールを形成し、其れが環境の理解・制御や生存といった危険なものになる可能性を懸念している事を引用し、AIが人類の絶滅を引き起こす存在リスクは現実的だが、過大評価されており、近い将来に発生する可能性は低いと主張した。又マッカーシーは、斯うしたリスクは、現在のAIからAGIに進化し、自己改善の連鎖で超知能が生まれるシナリオからくるが、西暦2,024年時点の、データ量や計算リソースを増やしてもモデルの性能向上の割合が次第に減少するトレーニングの収穫逓減等の現象が此れを遠いものにしている、として、政府・規制機関・国際組織等の政策立案者は、資源の制約から、バイアスや誤情報等の緊急の害への対応を優先すべきである、とした。 | |
| 2,025 | 8 | 21 |
JICA(独立行政法人国際協力機構)主催の、アフリカ諸国と日本の地方自治体の連携を強化し、相互の発展を目指す取り組みであるJICAアフリカ・ホームタウンサミットが、横浜ベイホテル東急にて開催される。TICAD9(第9回アフリカ開発会議)のテーマ別イベントとしての開催であった。人材環流を促進し、架け橋人材を育成する事により、アフリカの課題解決と日本の地方活性化(地方創生2.0)を両立させる事が背景として有った。日本の以下の4つの自治体が、アフリカ諸国のホームタウンに認定された。 ①山形県長井市(タンザニア) ②新潟県三条市(ガーナ) ③千葉県木更津市(ナイジェリア) ④愛媛県今治市(モザンビーク) |
|
| ≈ | 2,025 | 9 | 2 |
コロニー(スイスのジュネーヴ州)のWEF本部にて、ヤング・グローバル・リーダーズ・プログラムのサミットが開催される。此の年のテーマは非公開であった。今回此のプログラムに選出された人間は主に以下である。 ①格安ホテル予約サービスであるオヨ・ルームズを運営するオラベル・ステイズ・プライベート社創業者リテシュ・アガルワル ②ドイツ下院議員で移民・難民・統合担当委員のレーム・アラバリ・ラドヴァン ③第43代オランダ国防大臣ルーベン・ブレケルマンス |
| 2,025 | 9 | 4 |
ローマン・ヤンポルスキーが、ソーシャルメディアマーケティング会社であるソーシャル・チェーン社共同創業者スティーブン・バートレットのポッドキャストに出演する。ヤンポルスキーは、以下の主張を行った。 ①5年後には、嘗て無いレベルの失業率を迎える。10%では無く99%だ。 ②先ず、コンピュータ上の仕事が全て自動化され、其の5年後にはヒューマノイドロボットが肉体労働も自動化する。20ドル/月のサブスクで従業員と同じ事が出来るなら、人間を雇う意味が無い。 ③AGIは2年以内に到達する可能性が有る。 |
|
| 2,025 | 9 | 16 |
以下2名の共著である「誰かが作れば、人類は滅びる - 超人的なAIが何故私達全員を殺す事になるのか」が、リトル・ブラウン・アンド・カンパニーから出版される。 ①エリーザー・ユドコウスキー ②MIRI代表ネイト・ソアレス 20年以上の警告を約56,000語に凝縮し、超知能AIが人類を滅ぼすメカニズムを一般読者向けに解説した。ニューヨーク・タイムズ紙のベストセラーリストに入り、以下の2誌の西暦2,025年のベストブックにも選出された。 ①ザ・ニューヨーカー ②ガーディアン ユドコウスキーは、ニューヨーク・タイムズ紙に「効果的な国際条約が実現し、此の本が其の一助となったなら、成功と呼びたい」と語った。 |
|
| 2,025 | 10 | 5 | BGF(ボストン・グローバル・フォーラム)CEOグエン・アン・トゥアンが、ウォール・ストリート・ジャーナル紙でヨシュア・ベンジオが懸念している、先進AIシステムが人間の監督を回避する能力を発展させ、欺瞞や操縦を通じて制御不能になる可能性や、人類絶滅の脅威としてのAIの自己目標設定と人間知覚への干渉に関し、支持を表明する。トゥアンは、全体としてのイノベーションと絶滅の岐路での緊急性を強調し、人間中心のAI開発と集団的利益の為のグローバル協力が必要であると結論付けた。 | |