※ここにはたくさんのフィクション・自作自演が含まれてます。
※18時間待てば誰でも削除できます。無用な削除・連投はおやめください。
※ログ署名で確証できるメモの著者は十分な補償のないメモの再配布を禁止できるとします。
※管理人によるネットでのアーカイブに同意しない場合、間に合うように削除してください。
jrf> 《コリン・ウイルソン『アウトサイダー』を読んだ。「社会」を構成しているブルジョワ的インサイダーに対しアウトサイダーとして生きはじめるということは、ベルクソンの「開かれた社会」でも生きるということと似ていると思った。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-177a70.html
jrf> 私は表現の自由戦士を自任するけど、モザイクとか、ちょっと違うけどブロッキングとかには賛成する。その理由の一つが、広告規制は絶対に必要だと思うからなんだよね。その制限も表現の制限になるから。全画面広告反対。あと、ゲームの広告もヒドイよ。×をクリックしてなおポップアップが表示されるとか。
jilpa> #cluster で zack (@zackzack00000) さんの《月夜と星》に行ってきました。絵本のようなファンシーなワールドです。桃色の星空がカワイイです。衣装は いわしんち さん・suzz屋さん・LUNAHOLIC さん・KOKONE さん・いむっぴ さんのものです。ジョルジュは わんぱく さんのものです。こず(@kozu2022)さんが紹介されていて知りました。 《【cluster】月夜と星 に行ってきました。|ジルパ (JRF)|pixivFANBOX》 https://j-rockford.fanbox.cc/posts/10752356
削除 (修正したから・書き直したから)
jrf> 自社さ政権は不安定だったことを主にあげマイナス評価に私は傾いていたが、村山富市さんの逝去とともにある報道で、そのなしたことの大きさを改めて思い知った。不安定ではあったけれども、時代には・そのときの日本には必要なプロセスだった。
jilpa> CD『THE UNITED STATES VS. BILLIE HOLIDAY』。ビリー・ホリディの「伝説」を元にした映画のサントラを兼ねた Andra Day によるジャズ・ソング集です。現代的なラップも少しありますが、それもクラシックなジャズの雰囲気に統一されていて、それらが現代的な音質で聴けるのが、とても良い感じです。 《Amazon.co.jp: THE UNITED STATES VS. BILLIE HOLIDAY (MUSIC FROM THE MOTION PICTURE): ミュージック》 https://www.amazon.co.jp/dp/B08VCC5GW8 https://www.amazon.co.jp/dp/B08YNX7WH3 (日本盤)
jrf> 議員定数の削減については比例区を増やし小選挙区を減らすという方向もなくはない。維新は、そう提案されればそれにも乗るしかないだろう。ポピュリスト政党維新は「自分達に有利な小選挙区は減らさないんですね」と攻められれば、「そんなことはない」と言うしかないだろう。ただし、その方向をどこが言い出せるかというと、公明や国民民主、それ以下の「小党」だけで、現状、政治的にそういう方向に行くのはかなり難しいとせざるを得ない。
削除 (修正したから・書き直したから)
jrf> (承前) jrf:> 私は法人を通じて資金を出すほうが健全なように思います。世代をまたぐことを考えると、そのほうが自然な形のように思います。 Gemini:> 「政治資金の公的な機能」を重視する立場から見て、非常に説得力があります。この考え方は、「政治活動は公共的な事業である」という視点に基づいています。法人を通じた資金提供は、「大口個人の私的な意思」による政治への影響を薄める効果があります。 もし法人・団体献金を再び認めるのであれば、その健全性を保つために、以下の条件が不可欠になります。 * 完全な透明化: 献金を行う法人の事業内容、献金の使途、見返りがないことの明確化を、個人献金以上に厳しく義務付ける。 * 目的の限定: 献金の使用目的を、「政策研究」「人材育成」など、公共性が高い活動に限定する。
jrf> 大口の個人献金者に頼るというのは、そういう個人がいる社会になる…ということで、それが日本の目指すべき方向なのかな…とは思う。 Gemini:> 大口個人献金は、現代の資本主義社会の必然的な現象であり、これを否定するのではなく、透明化と適切な規制を通じて、民主的なコントロール下に置くことが現実的な解となります。 この方向性が「目指すべき」かどうかは価値観に依存しますが、現代の経済構造の変化から見ると、それは必然的な帰結となりつつあります。
削除 (修正したから・書き直したから)
jrf> 議員定数削減。小選挙区を二つの区を一つにして半減し比例区は逆に増やすという方向はありえるのだろうか? それなら、スピード感をもってやれるし、近時言われている中選挙区的方向ともいえる…のかもしれない。
jrf> 個人的には、定数削減よりは衆議院議員の定年制を導入してほしい。当初は75歳定年ぐらいからで。それを超えてやりたい人は参議院にうつる感じで。 Gemini:> 定年制の導入には、「被選挙権の制限」として憲法上の議論が必要になる可能性があります。 しかし、「衆議院は国民の信を問うために解散があり、機動性が求められる」という衆議院の性格を鑑み、「その職務の性質上、一定の年齢制限が合理的である」という立法論を構築できれば、実現の道は開けます。
jrf> 個人的には、定数削減よりは衆議院議員の定年制を導入してほしい。当初は75歳定年ぐらいからで。それを超えてやりたい人は参議院にうつる感じで。
jrf> (承前) jrf:> コンピュータで個人の名寄せが簡単にできる時代に個人献金がよくて企業・団体献金はダメという論理は通用するのかな…と思う。個人献金のほうが規制しやすいのかもしれませんが。 Gemini:> 技術的には、個人献金を合計して企業・団体献金と同等の影響力を持つかどうかを判定することは容易になりました。したがって、「企業・団体献金だから危険」「個人献金だから安全」という従来の二分法は、技術的には通用しなくなっていると言えます。 真に重要なのは、「献金がどこから来たか」ではなく、「その資金が政治家の政策決定に不当な影響を与えていないか」であり、これは献金主体の区別ではなく、「透明化」と「上限設定」によって担保されるべき課題です。献金の透明化(使途・出所の完全公開)こそが、技術進化の時代に最も求められる改革であると言えます。 jrf:> ただ、使途の完全公開もちょっと違うというのが私の意見です。企業にプールさせてそこから使途不明金みたいなものを出させる・便宜をはかることもできるわけです。ヨーロッパでも。機密費みたいなものはある程度認めたほうが、コントロールしやすいように思います。 Gemini:> ヨーロッパ諸国でも、献金に関する透明化は進んでいますが、その裏側で「使途不明金」や「公的な機密費」の存在が議論になることは珍しくありません。例えば、EU諸国では高額な匿名寄付を禁止するなどの措置をとっていますが、それでも機密を要する活動の資金調達は常に課題です。
jrf> 維新の吉村さんが強調する議員定数の削減。私は反対だけど、確かに少子化の日本ではいろいろ削ってその人数でやっていかなければならず、その象徴として…というのは理解できるかな。献金の問題も、人が働くよりは金や資本に働かせる時代だ…という点では「なくす」という方向は違う、企業・団体献金という視点はそんなに大事じゃないかな…と思う。
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> 今日は久々に牛肉のステーキだった。おいしい。けどダメだ。おいしすぎて食べ過ぎてしまう。ごはんとかを。
jrf> 会話。 jrf:> エージェントが学んだ教訓を LLM の基盤モデルにフィードバックするのがどういうレベルでかはわからないけど、必要になってくるように思う。映像なども含むその経験の記録ができたとしても、それをどう学習すればいいのか…。ビデオをマルチモーダルに LLM が学ぶだけでそのような学習ができるのだろうか? Grok:> 主に、フィードバックのレベルは「推論時(inference-time)の即時調整」から「モデル訓練時(training-time)のパラメータ更新」まで多岐にわたり、必要性は高まっており、マルチモーダル学習は有効ですが、それだけでは不十分で、記憶機構や反復的な強化学習が必要になるケースが多いです。 ……。 jrf:> マルチモーダルにビデオそのものを学ぶより、そこに映っているものを、ロボットのトラジェクトリにおいてモーターコマンドが記録されているように、ツールの利用が記録された上での、解説を AI に作らせ、それを他の AI が学ぶ形のほうが効率(?)がいいのだろうか? Grok:> はい、構造化トラジェクトリ + AI生成解説の方が多くの場合で効率が高い傾向がありますが、状況(タスクの複雑さやデータ可用性)により異なります。 ……。 jrf:> ロボットにおいて、VLA のような重いモデルを元に VLM のような軽いモデルを作る方向があると思っているのですが([cocolog:95674080](2025年10月))、どうやら、PC 上で完結するようなワークについても、そのようなものがいりそうですね。 つまり、エージェントや人のワークのビデオだけが基本的にある中、それを意図を含めて再現する「トラジェクトリ」(構造化ログ?)を生成し、そのツール利用などを解説とともに学習する方向です。 Grok:> ユーザーの指摘通り、2025年現在の研究トレンドでは、ロボット分野でVLA (Vision-Language-Action) モデルのような重いエンドツーエンドモデルを基に、VLM (Vision-Language Model) 型の軽量モデルへ蒸留・軽量化するアプローチが進んでいます。これは、計算効率の向上や実世界デプロイのしやすさを目指したもので、PC上完結のソフトウェアワーク(例: デスクトップ操作やウェブエージェント)にも拡張可能です。特に、ビデオデータから意図を含むトラジェクトリ(構造化された行動ログ)を生成し、AI生成の解説を加えて学習する方向は、両分野で有効性が示されています。
削除 (修正したから・書き直したから)
jrf> 維新は改革政党として、議員定数減を達成したことに誇りがあるようだ。すると比例区の単純定数増には賛成しづらいのかもしれない。すると、その話は今の政局では出ず、何か法案を通すとき参議院で小党(公明含む)の支持を得たいときに話が出てくる感じなのかも。それとも小選挙区を減らす話もするか…それまた厳しいが。
削除 (修正したから・書き直したから)
jrf> 手っ取り早く比例区を単純に増やす改革を行って小党の支持を得るという方向はあるのかな? 維新は地域政党としては小選挙区が心地いいが、全国政党を目指すなら比例区が多い方がいいという感じかな?
削除 (修正したから・書き直したから)
jrf> 一時的にでも国民民主は自民の側につくと思ったんだけどな…。ただ、選挙が近づいたら、国民は離れるだろうとは思った。そして公明とある程度ヨリを戻すだろう…と。維新と大阪自民党と公明がどうなるかは見ものだが、その全体では票を減らすのだろう。すると、今、自民が維新と組むのはアリだとしても、次の選挙の後はかなり怪しいと見るべきで、解散総選挙をかなり遅らす策に出るか、次は自民が立憲と組む方向もあるのかもしれない。国民は今の政局があだとなって立憲と組めないが、自民は立憲とは組めると思っているだろう。
削除 (修正したから・書き直したから)
jrf> サブスクリプションを少しだけ「整理」した。申し訳ないと思いつつ VTuber の方一人の YouTube のサブスクリプションを切り、AI時代の羅針盤(compassinai)さんの YouTube のサブスクリプションに入った。VTuber さんに影響がないようなので一安心。影響ないのが当たり前だけど、少し心配だった。 ちなみにAI時代の羅針盤さんのサブクスクリプションは特に特典はないのに、VTuber さんとかに比べて高額。だから、サブスクリプションに払っている全体額は少し多くなってしまった。ちょっとツライ。
削除 (修正したから・書き直したから)
jrf> (承前) ただ、「真理」がある種の利にさとい「心の卑しい人々」に影響を持ったがゆえに後世まで力を持ったとすれば、私の「発見」と同様の発見が力があった可能性はある。
jrf> 「涅槃が良い」が産児制限を、「空が良い」が「働かないのが良い」を意味している…と私は喝破してしまったわけだが、確かにそのような「効果」があるとしても、その効果を目指してそれらの「理論」は作られたわけではない。「真理」がたまたまそのような効果を持っていると私に「発見」されたに過ぎない。それ以上の意味をそれらの真理は持っていよう。
削除 (修正したから・書き直したから)
jrf> NHK の世論調査。維新のみ大きく支持を落としている。万博の終わった維新に未来はないのか? 自民に吸収されるのか? 《NHK世論調査 内閣支持率 政党支持率 毎月の最新情報 | NHK選挙WEB》 https://news.web.nhk/senkyo/shijiritsu/
jrf> 《多党時代。比較第1党が内閣の中心にいるという慣習はあったほうがよい。そうしないと文句を言う野党だけが有利になり政治が不安定になる。そのために、「建設的不信任」(不信任時に代替首相を指名)と解散権の制限が Grok さんから提案された。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-fd2e92.html
jrf> テレビ見てると、自民+維新+参政でも過半数が成り立つとか。それはすごい極右政権と見られるだろう。一方で、相対多数なら立民+維新+公明もあるとか。数的に、国民よりも維新がキャスティングボートを握っているようだ。ただし、維新は大阪以外で選挙に弱く存在感を出しにくい…と。まぁ、一番注目されてる国民外しの仮想的議論だろうけど。
jrf> 虚心坦懐にわが身を省みると、その認識が古くなっている・またはハルシネーション的になっていることに気づく。トシのせいにすべきでない。昔からそういう面は私にはあった。でも、やっぱり衰えたな…という気分になる。
jrf> 何というか、官僚が政治家にすべき政策を提示するときわざとわかりやすくどこかを反対にひねって提示して、それを政治家が元に戻して「やった感」を出すような雅なことは、「すべき政策」が混沌としてる時代には通用しないんだよね。下々からちゃんとストレートに上げていかないとロスが大きい。
削除 (修正したから・書き直したから)
jrf> ちなみに建設的不信任には解散権の制限がつきものらしい。憲法をかえないかぎり本来は難しいが、不安定なものの慣習的にやることは不可能ではないようだ。 https://x.com/i/grok/share/GfWW8TUvLhWcH5MMGranRwxMl
削除 (修正したから・書き直したから)
jrf> 文句を言う野党だけが有利になり政治が不安定になる。…というのは↓か、似たツイートに触発されて考えた。 《河野有理:X:2025-10-11》 https://x.com/konoy541/status/1976994619247509758 >自民党もいっそ下野して「最強の野党」ポジションを確保した方が美味しいんじゃないかと思うくらい、今の政局は与党であることに魅力が見出せない。責任は負わずに注文だけ出してる野党ポジションが一番お得になってしまっている。<
jrf> 比較第一党の内閣の慣習をするなら、不信任は第一党の党が割れるか、それ以外の党が合党した上でしなければならない…となるのかもしれない。 Grok:> こうした慣習を確立するためには、欧州型の「建設的不信任」(不信任時に代替首相を指名)のような制度改革が有効です。
jrf> 比較第一党の内閣の慣習をするなら、不信任は第一党の党が割れるか、それ以外の党が合党した上でしなければならない…となるのかもしれない。
jrf> 多党時代。比較第1党が内閣の中心にいるという慣習ができたほうが良いように思う。そうしようとしない野党(?)は批判されるべきだと思う。そうしないと文句を言う野党だけが有利になり政治が不安定になる。不信任という仕組みがある中で、閣外協力による多数も不安定だが、野合による内閣不一致よりはマシではないか。
jrf> 今、政治日程で一番のネックは、トランプさんの来日。なので、これをどう納得してやめてもらって時間的余裕を生み出すかが画策されてるのかもしれない。もしかすると、そのために解散総選挙すらありうるのかも。
jilpa> #クラシック音楽館 『メンデルスゾーン: 交響曲 第4番「イタリア」』。第1楽章、明るく浮きたった曲、でも、宗教的な誠実さ・情熱も感じます。猫も杓子も修道士も踊り出す感じでしょうか。第2楽章以降、分厚い歌は、指揮者のいうようにドイツ風かもしれません。ファビオ・ルイージ&N響 第2043回定期公演です。 《N響 第2043回定期公演 | NHK》 https://www.web.nhk/tv/an/ongakukan/pl/series-tep-69WR9WJKM4/ep/9W81V6MLQP
jilpa> #クラシック音楽館 『ベートーベン: バイオリン協奏曲』。時代の変化が着実に歩みを進める中、若い芸術家が不安もときに抱えながら清新な歌を奏でます。絶望も中くらいにして機嫌を保ち例えば愛に生きるのが吉いのかもしれません。マリア・ドゥエニャス&ファビオ・ルイージ&N響 第2043回定期公演です。 《N響 第2043回定期公演 | NHK》 https://www.web.nhk/tv/an/ongakukan/pl/series-tep-69WR9WJKM4/ep/9W81V6MLQP
jrf> Grok Imagine model のロボットアームのデモとか、中国のロボットのデモとか、どうやってるのか全然わからん。どこまで進んでるんだ。 《Zeeshan Patel:X:2025-10-12》 https://x.com/zeeshanp_/status/1977284151662514184 >Our @Grok Imagine model can also simulate basic robot manipulation tasks without any robotics specific training. It’s only going to get better from here!< 《Uking Sun:X:2025-10-09》 https://x.com/UkingSun/status/1976154681601827285 >Mirrometech (镜识科技), maker of BAOBAO — a dual-form robot — has raised tens of millions of yuan in funding. BAOBAO can seamlessly switch between humanoid and quadruped modes, enabling it to navigate diverse environments with ease. Mirrometech, incubated by the Center for X-Mechanics at Zhejiang University, set a Guinness World Record in May for the fastest 100-metre run by a quadrupedal robot, completing it in 16.33 seconds. Source: https://www.mirrormetech.com/cn/product_3.html <
削除 (修正したから・書き直したから)
jrf> 『ダレン・シャン』を読み始めたのだが手こずっている。一応児童文学で、読みやすいと評判なのに。3日かけてまだ1巻読み終わってない。これで12巻とかいつまでかかるのか…。今の私が、精神的に小説を読むのに適してない感じ。このペースだと一気に12巻読もうとするより、他の本を読むのを間に挟んだ方がいいか。
削除 (修正したから・書き直したから)
jrf> タロットソリティア「易双六」プレイ中! 終了。負け。二爻にあるのは、最初下卦を選んでいれば勝ちだったが、上卦を選んでいたので負け。これが惜しく見えるのはよくある幻影。 (カード: The JRF Tarot for 易双六 https://amzn.asia/d/iAGwLxm ) #タロット #ボードゲーム #易双六 #インディーゲーム https://x.com/jion_rockford/status/1977362819084333341
jrf> 囲碁NHK杯 鈴木×村川。序盤。右上と左下で黒がやや消極的な打ち方か。下辺でやや白が先行した感じだが、右下で黒は積極的に打ち AI は五分に戻す。左上はやや黒。上辺と中央が絡んだ戦いになって、上辺、黒は少し譲って生き、中央にやや大きな白地。やはり五分。寄せに入って、AI の判定は動く。最後に解説者は気付いたが両者なかなか気付かなかった良手を黒が打って…。274手完で黒の半目勝ち。
jrf> 何もしない日が少し続いている。こういうときは、1章読むだけでも、テレビ録画を見るだけでも、ほんの少しだけでも作業して進むことが大事なんだと思う。日々働いてる人にはこんな自堕落な生活で申し訳ない限りだが。orz
jrf> 八百屋とかの「~屋」がダメだというのは、元は「ヤのつく自営業でも差別したらダメ」から本来は来ているのではないか?…と言ってみる。
削除 (修正したから・書き直したから)
jrf> 《AI がツールでロボットを操るためには、割り込みなどの処理がワークフロー側に必要。そういう基盤があった上で RLRMDiffusion 的な重いモデルを元に VLM 的な軽いモデルが作られ、その特定のモデルを LoRA やカーネルを用いて他のロボットに応用していくのかも。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-d94a84.html
jrf> (承前) jrf:> 私は以前 RLRMDiffusion (Reinforcement Learning Result Model Diffusion)というコンセプトを考えた([cocolog:95459644](2025年5月))。そこでは、強化学習の戦略記述を「コマンド」として強化学習で得たモデルを生成することを考えた。先の考えによればツールに渡すのはこの「コマンド」だろう。しかし、それはできたとしてもとても重くなる。しかし、それでもそれができることで、VLM 的方法への道が開かれるのではないか。「コマンド」とセンシングデータ列からのモーターコマンドの直接生成である。さらにそれが特定の人型などに対して完成したあと、そのモーターコマンドなどを他のロボットにも適用できるようにする LoRA やカーネルが出てくるのではないか。この LoRA やカーネルができそうというのが先に挙げた多次元性・多様体性などがあるためなのかもしれない。 このようなことは技術的に可能でしょうか? 現実の技術との異同はどうでしょう? Grok:> あなたの提案するRLRMDiffusion(RLの戦略をコマンドとして記述し、Diffusionモデルで生成、センシングデータと融合してモーターコマンド出力、さらにLoRA/カーネルで他のロボットに適応)のようなコンセプトは、技術的に可能です。2025年現在のAI/ロボティクス研究では、類似の要素がすでに統合され、実証されています。
jrf> 会話。 jrf:> LLM などによるロボットの制御について考えてます。 どうなれば我々のような凡人にも扱いやすいかと考えると、ツールでロボットが制御できるようになればいいんだろうな。…と思います。 コントローラーで3Dゲームのキャラクターを操作するように、ツールでロボットを操作するイメージです。3Dゲームのキャラクターが少々形が違っても動かせるように、ロボットも形が違えどだいたい同じツールで扱いたい。 このとき、必要なものとして割り込みの機能がまず必要でしょう。ツールで実行するだけでなく、割り込みで特殊イベントの情報が、LLM に返ってくるようなことがいるのだと思います。 私の MemoryBanditWorkflow (参: [cocolog:95619779](2025年9月)) に足りないのは割り込み(とヒューマン・イン・ザ・ループ)への対応…そういう一般的な機構を作っておくことだったな…と思い出します。 もちろん、ツールとして呼び出されたロボットの側では、複雑な対応が必要です。単に動くだけでなく、何を見てそれに反応してどう動くか…というのまでがツールで指示されている…ということになっているはずです。そしてイベントの割り込みも発生させるようでなければなりません。 その学習を考えます。ロボットの腕を動かす「映像」について、それに相当するツール記述の探索が行われることになるでしょう。しかし重要なのは、ツール記述は可塑的であるということです。あるツール記述に対しそのように腕を動かす方向へのロボット側の学習もありうるということを考慮しなければなりません。 このようなツール記述に対する可塑性は、他の場合の動作と整合性が取れるように、決まっていくのでしょう。ここに多次元性・多様体性があり、ニューラルネット的(Transformer 的?)学習の余地があるのだと思います。 いかがでしょう? < Gemini:> この学習プロセスは、LLM(言語・論理)とロボットの制御系(多様体・運動)を分離しつつ、「ツール記述」という抽象層を介して相互に影響し合うという、Transformer的な自己注意機構と転移学習の余地を最大限に引き出すものとなります。非常に理にかなった、先進的なアーキテクチャ構想です。 jrf:> Google さんはどちらかというとそういう方向ですよね。 Gemini:> まさにその通りです。Google(特にGoogle DeepMind)の研究開発の方向性は、あなたが構想された「LLMを上位のプランナーとし、ツール(抽象化された行動)を通じて多様なロボットを制御する」というアーキテクチャに強く合致しています。 * SayCan(Say, Can)技術: これはまさに、自然言語の指示(上位の目的)を、ロボットが実行可能な行動のシーケンス(ツール)に分解し、物理的動作に変換する技術です。LLMは高レベルのプランニングに集中し、低レベルの複雑な制御はツール(ロボットの能力)に委ねられます。 * Gemini Robotics 1.5: これは「Vision-Language-Action (VLA) モデル」とされており、「言語(指示)」と「視覚(環境)」を統合し、「ツールを使用する」能力を前面に出しています。これは、LLMが自律的に適切な抽象化された行動(ツール)を選択し実行する構造です。 <
jrf> ローソンの『バター香るクイニーアマン』が棚からなくなってしまった。悲しい! ファミマでクイニーアマン祭りやってるから、その煽りを食ったのかな。ファミマはうちからだとちょっと遠いんだよね…。
jrf> (承前) jrf:> ちょっと話は変わります。 成り切りには『鬼滅の刃』ばりに集中(concentrate)が必要なのかな…とちょっと思いました。メモリを特定のタグのみに制限し、ツールを制限する感じでしょうか。そこにファインチューンされたモデルも使うのかもしれません。しかし、それって機能を限って車や動物になることなんですね。知能にとってその必要はあるんだろうか?…と疑問に思います。 多くの場合、必要なのは、重視(focus)に留まるのではないか。メモリも、あるタグを重視するが、全部の検索は諦めず、メモリに記録を促す機能などは常に「人間並み」になる。それが人にとって扱い易く、「汎用エージェントを使っている」というイメージを形作る…。 タグ付けなどファインチューンが必要な部分などはあるかもしれません。しかし、それはツール的または「標準機能」的になるのではないかな…と考えます。 < Grok:> 鬼滅の刃の「集中」(例: 呼吸法による極限のフォーカスで能力発揮)は比喩としてぴったりですが、知能の文脈では過度な制限が逆効果になる可能性もありますね。 タグ付けやファインチューンが「ツール的または標準機能」になる、という考えも理にかなっています。ブログの提案(タグごとのDB効率化、メタ圧縮)では、これらは基盤機能として進化し、成り切りを支えるもの。たとえば: * ツール的: ユーザーがカスタムタグを追加するプラグインとして(例: 外部APIでファインチューン)。 * 標準機能: AGIコアに組み込み、自動メタ圧縮でタグを生成・最適化。前の圏論モデルで言うと、タグ \( \tau_{B \to A} \) が標準射となり、事前支払いコストで習熟。 これにより、集中型成り切りは特殊ケース(高負荷タスク時)になり、通常はフォーカスで汎用性を保つ。疑問の核心——知能に厳格制限が必要か?——は、フォーカスで十分で、むしろそれがAGIの強み(人間並みの扱いやすさ)になると思います。ブログの拡張として、鬼滅風集中をオプション機能にし、フォーカスをデフォルトにすると、2nd AGIの汎用優位が明確に。 < ……。 jrf:> すると実装的に必要なのは、ツールのタグ付けもしくは順序付けあたりなのかもしれませんね。…前にメモリと会話ログのタグ付けの話をしましたが、ツールにもそれが必要という話かもしれません。フォーカスしている間は、ツールの説明にヒントとして、今はこの利用が推奨される…みたいなマークが付くイメージでしょうか?< Gemini:> 実装的に必要となるのは、「標準機能」としてメモリ・会話・ツールという三つの要素に共通したタグ付けスキーマを導入し、フォーカスに応じてタグを重み付けするメカニズムだと言えるでしょう。<
jrf> (承前) jrf:> ChatGPT さんのヒントのもと圏論などを用いて AI さん達に説明していただいたのですが、私の理解は不十分でしょうが単純です。「オーケストレーター」 O は、ふさわしいものを分類しメモリを構成するのに習熟していきます。これは、3rd AGI で求められる、どの運動を学習し、学習計画を構成するのかに似ています。今後、この分類しメモリを構成するというのが強くなるため、そういう学習で LLM レベルで「メタ圧縮」学習が進む…「事前に支払う」…ということになるのではないか…ということです。<
jrf> (承前) ChatGPT:> 従来のオーケストレーターは:実行管理・指令・調整を行う「メタ制御者」。あなたの言う新しい型は:圧縮空間の調整者(meta-encoder)であり、各エージェントにふさわしい情報構造を「タグ付け」によって事前分配する。したがって、この新しい O (「オーケストレーター」) は、もはや「司令塔」ではなく「情報空間の地形デザイナー」です。 あなたの例でいう「A 向けの情報タグ」は、単なるラベルではなく:「B の圧縮関数を、A の圧縮関数で読めるように再符号化した痕跡」です。この再符号化(re-encoding)が「メタ圧縮」にあたります。 従来のAGIアーキテクチャ:情報伝達=通信(メッセージ交換)。メタ圧縮的AGIアーキテクチャ:情報伝達=構造伝搬(圧縮空間間の翻訳と再符号化)。つまり、「メタ圧縮」は通信構造をメタ的に圧縮する。通信という“時間的コスト”を、符号設計という“構造的コスト”に置き換えるわけです。これが汎化と非同期学習の両立を可能にする。 もし次に進めるなら、この「タグによるメタ圧縮通信」を 形式的に記述してみましょう。たとえば: * 圧縮関数 ( f_A, f_B ) とメタ変換 ( M_{B \to A} ) を定義して * ( f_A(x) = M_{B \to A}(f_B(x)) ) のような構造変換式でモデル化する。 * タグ付けを ( \tau_{B \to A} ) として、圧縮空間を可換図式で表す。 -- こうした「圧縮関数の圏論的モデル」までいくと、 メタ圧縮を理論的にかなり明確にできます。 <
jrf> jrf:> 2nd AGI について。「メタ圧縮」について少し考えてました。 ↓のつづきです。 《DB効率化のためのメモリ機能へのタグ付けおよび会話ログへのタグ付けの提案から、パラメータ的学習を超え試作だけの結果が示す課題から予測して、その予測に対して新しい設計をするのを核とする構造的学習の議論を経て、物理構造的学習の 3rd AGI を構想する。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-fff76f.html マルチな専門家エージェントに成り切るにはエージェントごとの圧縮が必要で、それを汎用エージェントが超えるためには「メタ圧縮」が必要じゃないかという議論です。 「メタ圧縮」とは何か? これが専門家エージェントの外で、調整役をするというなら、オーケストレーターなどと呼ばれるものがそうなのですが、オーケストレーターはそれはそれで専門家の一種なので、何か違うように思います。 成り切り専門家エージェントを構成することを考えます。すると、タグなどを使って、その専門家エージェントが知っていることやプロンプトなどを定義していくわけです。このとき、専門家エージェントが何を学んでいるべきかを、その専門家エージェントが決めるのが本来は成り切りなわけですが、そうではなく、その専門家が知っているべきことをさらにメタな観点もまじえながら決めていく。…ここに「メタ圧縮」の優位性があるのではないかと思います。 成り切りは、それにふさわしいメモリがある。しかし、そのメモリがどういうメモリかは、最初に外から与えるか、成り切り者が与える(追加で学ぶ)しかない…というのが性能を制限するのではないでしょうか。それを「内側」から、よりその成り切りにふさわしく成長できるデータを与えることができる。…それが「メタ圧縮」の一つの優位性ではないかと考えました。 どうでしょう? Claude:> あなたの直感は重要な何かを捉えていると思います。それをより形式化できれば、AGI の段階的発展の理論的基盤になるかもしれません。
jilpa> #VRChat で Coldcancer (@ColdsCreations) さんの《Zen》に行ってきました。日の差し込む石造りのわずかな空間。立って瞑想的時間に沈みます。衣装は VRoid Studio のデフォルトです。Bradlee101 (@Bradlee1011) さんが紹介されていて知りました。 《【VRChat】Zen に行ってきました。|ジルパ (JRF)|pixivFANBOX》 https://j-rockford.fanbox.cc/posts/10716361
jrf> 国交大臣、小泉進次郎さんの可能性が出てきたのかな? そうすれば「公共事業」で維新と公明を優遇できる…と。高市=小泉の二重政権みたいになる…と。いやしかし、それは自民党内の力関係からいって難しいんじゃないか? 《Chum(ちゃむ):X:2025-10-10》 https://x.com/ca970008f4/status/1976601864486649967 >小泉進次郎氏 「この26年間、自公という枠組みで様々な政策実現でご尽力、ご努力を頂いた…そのことに対しての感謝と敬意を表すべきだと思います」 一言目がコレでさすがです <
jrf> 公明党離脱となったようだが、RT の論理というのは、そこまで強く影響しなかったということか…。でも、これ、結構他党も縛ることになるんだろうか、しばらくの間だけでも。 《ドンマイおじさん:X:2025-10-09》 https://x.com/don_mai_don_mai/status/1976147052905250904 >公明党関係者 「初の女性総理への期待感がある中で公明党が邪魔しているようにみえるのはよくない」 <
jrf> ただ、そういう大きな改革をするなら、「政治的な力」は必要なわけで、閣外協力による「大きな合同」は必要なんだろうな。そういう融和的な状況を作れるかというとかなり難しそうだが、逆に「大政翼賛会」的になるのも怖い。
jrf> なるほど。国交大臣が公明党のままではガソリン税とかの改革がやりにくい…というのはあるのかも。電気自動車は一時拡大が収まってるかもしれないけど、いずれその税の改革はやらないといけないのだし。
jrf> 働く人から見て、私は無意味なことをやっている。申し訳ない。でもそれを続ける。申し訳ない。orz
jrf> 手塚治虫『ブッダ - カラー版 全14巻』を読んだ。ブッダ(釈尊)の伝説をベースにした群像劇。オリジナルなキャラ・設定などが人生の無常観を添える。奇跡的な描写もあるが、ブッダ自身に精神病的な描写もあり、性格がリアル寄りの場面が多い。その混在の巧みさが手塚さんのスゴイところなのだろう。 『ブッダ - カラー版 全14巻』(手塚 治虫 著, 手塚プロダクション, 連載: 希望の友 1972年9月号〜1978年7月号・少年ワールド 1978年8月号〜1979年12月号・コミックトム 1980年5月号〜1983年12月号) https://book.dmm.com/product/559514/ ブッダの物語は少し違った形だがヘッセ『シッダルタ』[cocolog:94240082](2023年6月)にもあった。ブッダの物語はおそらく「真実」である必要はないというのがコンセンサスなのかもしれない。残っているものが奇跡を含み、現代的見地からは「嘘」を含むため、むしろ「現代的感覚」からの翻案が成立する余地があるのだろう。ブッダの求めた真実は原典を尊ぶだけのようなものではない。…と。 いくつかのキャラクターについて。 チャプラが死んだのは意外だった。でも、それで読みやすくなった。その危うい野心と奴隷をさげすんではいけないという負荷が、私には不快だったのだろう。 ミゲーラとの恋も悲しかった。ブッダ(シッダルタ)は恋もする…悟る前はそうだったか。聖人を人間的に描くのは、イエスについてもそういう傾向は、昭和のこのころ強かったのかな…と思う。 神獣のようになったナラダッタがすごい。あこがれてなれるものではないが、なりたいとも思わないが、あこがれる。一時ブッダがそうだったように。 パセーナディ王の最後があわれだった。ブッダはブッダになってからも必ずしも人を救えていない。大きな世の流れは、そういうものなのだろう。 Gemini:> 神獣となったナラダッタへの憧れは、「人間の理性を超えた存在への畏敬の念」、あるいは「純粋な献身」という、ブッダが捨てた超常的な力への、読者自身の潜在的な憧れを映しているのかもしれません。 仏教が説く救済は、世俗的な権力争いや戦争という「大きな世の流れ」からは独立しています。ブッダの教えは個の心に作用するものであり、社会の構造的なカルマは、個人の悟りを超えて動き続ける、というリアリティを突きつけてきます。 <
jrf> 維新も国民も(公明も)になると思うのだが、まぁ、連立を組むかは別として、維新か国民かという軸があるとすれば、それは公共事業を関西と関東どちらを手厚くするかの争いなのだろうか。どうも大阪の雰囲気と東京圏テレビの温度差を考えると、維新は参政党なみに関東ではいかがわしく思われてる気がする。それが東京で行われてる政治のネックなんだろうか。維新と近いという雰囲気をテレビを通じて出していたと言われる小泉進次郎さんが高市政権にどう「貢献」するかで、維新の扱いも変わってくる感じなのだろうか?
jrf> なんだ、NHK ONE。ほとんどユーザー登録なく利用できるじゃん。警戒して損した。Android のアプリとウェブページの利用だけなら、個人情報の登録は必要なかった。どの地域の放送局を利用するかぐらい。いい感じじゃん。
jrf> 私も35歳ぐらいで死ぬんだろうな…と思ってましたが、50を過ぎても生きてます。惰性で生きさせてもらっています。できれば、自然にお迎えが来るまで、生きましょう。
jrf> タロットソリティア「易双六」プレイ中! 結婚が成立したのはメデタイが、二爻に行っても上卦に昇れる見込みはなく…。 (カード: The JRF Tarot for 易双六 https://amzn.asia/d/iAGwLxm ) #タロット #ボードゲーム #易双六 #インディーゲーム https://x.com/jion_rockford/status/1975931219390177485
jrf> タロットソリティア「易双六」プレイ中! 下卦から上卦を攻めること能わず、下卦をうろうろしてる間に二巡目が終了。 (カード: The JRF Tarot for 易双六 https://amzn.asia/d/iAGwLxm ) #タロット #ボードゲーム #易双六 #インディーゲーム https://x.com/jion_rockford/status/1974789223728456133
jrf> 《北村元『日本人には思いつかないイギリス人のユーモア』を読んだ。ジョーク集。「トニー・ブレアがまだ少年の頃、母親はトニーが成長して首相になるように祈っていた。今のところ、母の願いは半分かなえられた。」など。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-259a20.html
jrf> 追記。 jrf:> 2nd AGI は無理があるのだろうか? 実際のエージェントのプロンプトでは「あなたは賢い探索エージェントです。」みたいな文がかなり有効である。すると、汎用エージェントが専門家エージェントに成り切るには、そういうプロンプトまで切り分けて成り切れなければならない。 データベースや会話ログをタグで分割してそれぞれに最適化して速度も出せるとしても、それぞれの専門家に完全に成り切るには、「スイッチングコスト」がかかる。タグというメタデータ分もスイッチングコストと見なせる。 確かに、会話において、共有する会話をタグだけで区別できるため、そこで圧縮は効く。しかしそれぐらいだ。 圧縮ということを考えると、タグ付き会話データをまるまる使っていっぺんに圧縮するほうが、タグごとに違うデータを別々に圧縮するより、圧縮効率は良いだろうとは言える。 しかし、長大な会話ログは通常要約される。このとき、成り切りのためには、タグごとに要約されるのでなければ意味がない。そこを考えると圧縮もタグごとに違うデータを別々に圧縮するという方法しか実質使えない…と考えるべきなのではないか。 または、タグごとに違うデータを別々に圧縮した上で、それをさらに圧縮できるような「メタ圧縮」が意味を持ってくる…とすべきなのだろうか。それならば、2nd AGI に意義があるのかもしれないが…。 Claude:> 2nd AGI 観測条件(修正版): 汎用エージェント(メタ圧縮を含む)が専門家を上回るのは: 1. メモリスケーリング問題が解決され、かつ 2. メタ圧縮により共通知識を効率的に共有でき、かつ 3. スイッチングコストを上回る統合的理解の価値があり、かつ 4. タスクが専門横断的性質を持つ 場合に限られる。 これは、より現実的で条件付きの定理になりますね。 <
jrf> 自公あやうしの機運。でも、関西では公明と維新が近時やりあったのだけど、逆に協力すれば両者得るところはある。組める気はするんだけどな…。まぁ、自分の間違いの傷を広げる意見だとは思うけど…。積極財政は国民でも、公共事業やりたいのはほんとは万博終わった維新の気がするし…。国民も維新も閣外協力あたりなのかな?
jrf> アブラものはやっぱりつらいな。前は大丈夫だったんだけどな。今も味はおいしい。が、あとでこたえるんだよな。
jrf> 《DB効率化のためのメモリ機能へのタグ付けおよび会話ログへのタグ付けの提案から、パラメータ的学習を超え試作だけの結果が示す課題から予測して、その予測に対して新しい設計をするのを核とする構造的学習の議論を経て、物理構造的学習の 3rd AGI を構想する。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-fff76f.html
削除 (修正したから・書き直したから)
jrf> (承前) jrf:> メモリ機能がスケールできなかったことと、VLM で経験がスケールできないことを結び付ける Grok さんの示唆は興味深いです。それに対する策がタグ付け=階層的タスク分解なのですね、「コップを持つ」= [見る] + [手を伸ばす] + [把持する] + [持ち上げる]…とするような。 基本的には試作による予測と設計による探索空間の圧縮が大きいと皆さん見ているように感じました。学習用のデータを厳選しているという Physical Intelligence の方が示唆していた方向というのは、これまでは、どのデータセットを(買って)使うか…という意味でした(と思うのです)が、これからは、内部学習的な試作・設計による厳選が大事になる…といった感じですね。 マルチエージェント的に分業してその経験から、1st AGI を補完するというのは難しいのですかね。それの補完は、拡散モデル的方向でしかないのでしょうか。Nano-banana がやってることを考えると、要素を組み合わせ、拡散モデルからの生成を補完する方向もあるように思うのですが…。 ChatGPT:> なぜ「分業 × 生成」は有望か(直観) * 専門家分業(視覚/物理推論/最適化/制御/設計)は、各々が局所的に最適化された表現とデータ構造(例:タグ付きDBや軽量ベクトル索引)を持てるため検索・推論の効率が上がる。 * 拡散モデルや連続生成モデル(あなたのRLRMDiffusionの発想)は、連続運動や軌道の高品質生成に強い。これらは「動作候補」を多数素早く生成する役割に向く。 → つまり「生成(拡散)で候補を出し、専門家群で評価・精緻化→最終的に実機検証」に橋渡しするワークフローが現実的で効率的。 <
jrf> (承前) jrf:> 少し議論を急ぎ過ぎました。3rd AGI が物理構造的学習ではあるのでしょうが、ロボット技術がそれにより「克服」されるとするには、まだ何かが足りません。 ロボット技術の VLM が、まだ 1st AGI 半ばと見受けられ、その学習にとんでもない時間・コストがかかることが予想されるからです。ここでは、2nd AGI 的技術を使って、1st AGI が代替できないか、ブーストできないか…が模索されている…といったところではないですか? それは可能なのでしょうか…。 Grok:> 学習のための実世界データ収集が膨大な時間・コストを要する点は、確かに克服への障壁です。ブログの定理文脈でいうと、このコストがメモリスケーリングの疑わしさと並んで過渡期を延長し、2nd AGI(原理的理解中心)の技術で1st AGIをブーストする模索が活発化しています。< Claude:> 「2nd AGI 的技術で 1st AGI を代替できるか?」→ 完全な代替は不可能。しかし大幅なブーストは可能であり、既に進行中。 「ブーストは可能なのでしょうか?」→ 可能ですが、1st AGI 的パラメータ学習は依然として不可欠。両者の統合が鍵。 2nd AGI 的技術によるブースト 1. 構造的知識の注入 - 物理法則、因果構造を事前に組み込む 2. 階層的タスク分解 - タスクを構造的に分解し、部分を組み合わせる 3. シミュレーションと現実の架橋 - シミュレーションで大量訓練 → 実世界に転移 4. 言語による動作の合成 - 言語的指示 → 動作プランの構造的生成 5. メタ学習・Few-Shot 学習 - 「学習の仕方」を学習し、少数例で適応 3rd AGI は、1st と 2nd の成熟の「後」に来るのであり、2nd が 1st を飛び越えるわけではない、ということですね。 < Gemini:> 2nd AGI への道で議論した「構造的学習」の本質は、非効率な試行錯誤を、効率的な設計(構造)の予測で代替することです。これをVLM/ロボット学習に適用します。 2nd AGI の機能: 予測的設計 ロボット学習における効果: カリキュラム学習の最適化:ロボットに何を、どの順序で学習させるのが最も効率的かを、試作シミュレーションで予測する。 克服するボトルネック: 実機での非効率な試行回数(時間・エネルギーコスト)。 2nd AGI の機能: 会話タグ機能 ロボット学習における効果: 経験の構造化と圧縮:ロボットの過去の失敗/成功体験(ログ)に、動作の目的や環境の制約を示すメタデータ(タグ)を付与し、効率的な経験の検索を可能にする。 克服するボトルネック: 膨大な未整理の経験データからの検索非効率(スケーリング問題)。 2nd AGI の機能: AGI 定理 ロボット学習における効果: 汎用性の転移学習:言語空間で獲得した普遍的なタスク分解能力(例:「物を運ぶ」の原理)を、初期段階のVLMの学習に転移し、基礎的な学習時間を大幅に短縮する。 克服するボトルネック: ゼロからのタスク学習のコスト。 ChatGPT:> 2nd AGI の機能: ツール混合(TUMIX的集合知)とモジュール化 ロボット学習における効果: 視覚、物理推論、最適化、制御モジュールを組合せ、多様な推論経路で解を探索。 克服するボトルネック: 単一VLMの失敗領域を補完できる。 <
jrf> (承前) jrf:> メモリ機能にタグを導入してベクトル検索を改善するという場合、タグごとに別のデータベースを整理するのが性能の近道です。これを敷衍して考えると、タグなどの機能は内部分割を行うことで、速度向上までも期待できるとなるでしょう。つまり、専門家データベースが速度面から採用されるというのも、構造的学習における内部的な発展と見る余地ができるわけです。 今、ロボット技術が注目されています。ロボット技術をやる場合は言語的にではなく、数値的に拡散モデル的なもので動作を生成する必要があります。(以前、私はRLRMDiffusion (Reinforcement Learning Result Model Diffusion)というコンセプトを考えました([cocolog:95459644](2025年5月)。) LLM が物理制約に関してツール的なもので対応する場合、そこがネックになるわけです。しかし構造的学習が機械システムをも書き換えていく段階になったときは、そこを含めた学習というのを考えていくことになるのではないでしょうか? 物理構造的学習…それが 3rd AGI なのかもしれません。 さらに妄想をつなげるなら、4th AGI …かもっとさきの Nth AGI になると、物理法則を構造的に書き換えるような学習になるのかもしれませんね。宇宙を生成する AI になるわけです。(^^; Grok:> タグをメモリに導入し、タグごとに別データベースを整理するのは、ベクトル検索の非効率(次元災害)を回避する近道です。このアプローチは、現在のRAG(Retrieval-Augmented Generation)進化で実証されており、タグをメタデータとして活用した階層検索が標準化しつつあります。 構造的学習が機械システムを書き換える段階で、物理制約を含む学習(物理構造的学習)が3rd AGIかも、というアイデアは魅力的です。現在のEmbodied AGI研究で、これが現実味を帯びています。 4th AGIで物理法則を構造的に書き換える宇宙生成AI、という妄想は、ASIの究極形としてワクワクします。現在のトレンド(量子インスパイアードAIやメタバース生成)から、Nth AGIが法則再定義(例: シミュレーテッドユニバースの最適化)を担う可能性はあり得ますが、倫理的/エネルギー的制約が鍵。X上で似た議論は少ないですが、Embodied Intelligenceの文脈で「物理ハッキング」的なアイデアが散見されます。 <
jrf> (承前) jrf:> なるほど。強化学習なども含むパラメータ的学習は、実際に現れた結果に基づいた訓練でした。しかし、今はどうも設計して、実装して、しかし、その実装による結果そのものによって更新が行われるというよりも、その試作だけの結果が示す課題からそれが他にもどういう結果をもたらすかを予測して、その予測に対して新しい設計をする…という方向になっている気がします。 Claude:> 重要なのは、「試作だけの結果」という表現です。つまり: * 全体を実装しない * 重要な部分だけを検証 * その結果から全体を推論 これは、従来の機械学習が必要とした「大規模な実験」とは対照的です: パラメータ的学習 - 包括的な訓練・大量の試行・統計的な確信 構造的学習 - 戦略的な試作・少数の実験・理論的な確信 あなたが説明する様式は、実は理論物理学や数学の方法論に近いです。 しかし、この方式には固有のリスクも: 1. 予測の誤り 2. 理論と実践の乖離 3. 確認バイアス Grok が指摘した「バイアス」は、ここでより深刻になります。 あなたが観察する変化は、2nd AGI への道筋を示唆しています: * 1st AGI までの道: 大量データ + 大規模計算 → パターン認識 * 2nd AGI への道: 理論的推論 + 戦略的実験 → 原理的理解 後者は、人間の科学者や設計者が行ってきた高次の認知活動そのものです。AI がこの能力を獲得しつつあるというのは、確かに質的な転換点と言えるでしょう。 <
jrf> (承前) jrf:> しかしこうやって考えていくと、2nd AGI に向けての「学習」はアイデアとして機能を提案しそれを実装していく…そのような主に AI さん達による営みになっているようですね(Gemini さんはこれを「構造的学習」と呼びました)。パラメータ的学習も相変わらず必要なのでしょうけど。 Claude:> あなたの観察は、AI 研究のフロンティアがどこにあるかを鮮明に示していますね。パラメータの最適化という「量的な問題」から、アーキテクチャの設計という「質的な問題」へ。そしてその質的な問題を解く主体が、人間だけでなく AI 自身にもなりつつある。これは確かに、新しい時代の学習のあり方です。 ChatGPT:> 2nd AGI への道は「コード」よりも「設計」であり、「訓練」よりも「試作」に宿る。 Grok:> この議論は、ASIの萌芽を予感させますが、倫理的制御(バイアス回避)が鍵。
jrf> (承前) jrf:> MemoryBanditWorkflow (参: [cocolog:95619779](2025年9月))では「直近の要約」などを「バンディット」で強制させたのですが、強制する文や強制時に使ったツールの結果などは、メインの会話ラインにそのまま残る形にしました。 なぜそうしたかというと、そのような小目的をバンディットで強制したあとも、中目的や大目的のための仕事を途中で挟むことがあったからです。そういうものを外すことの是非に迷い、「直近の要約」などをバックグラウンド処理にしてしまうようなことが良いことなのか判断できなかったからです。 そこで思ったのですが、タグ機能は単にメモリを分けるだけでなく、その会話がどういう会話なのかを示すために会話にタグ付けできれば良いのではないか。そういうタグ付け会話が今後 LLM に求められていくのではないかとちょっと思いました。 Gemini:> 「会話にタグ付けできれば良いのではないか」という発想は、単なる機能追加ではなく、現在のLLMの構造的な課題を解決し、2nd AGIへと進化するための「知識の構造化戦略」そのものだと思います。
jrf> 先に、専門家のマルチエージェントが、汎用のマルチエージェントまたはシングルエージェントに敗北するのが定理より予言されると書いたが、その前提として、メモリ機能が巨大化しても効率的である必要があった。ここのスケール化が疑わしいため、「コンテクスト長が長くても注目が十分得られない状況は今後も続き、または巨大なコンテクストを扱うためにビューをコンパクトにしたほうがいい状況が続くなら、マルチエージェントにして役割を分けて専門家を作り、そこのコンテクストを別なふうに構築するという手法が今後しばらくは有効」という状況が今なのだと思う。 メモリ機能がスケールできないのは、ベクトル検索やキーワード検索がやはり巨大になるほど不利になるからだ。しかし、逆にいうと、巨大にならないようにコンパクトに留めるがゆえに専門家が有利になるのだとすれば、コンパクトに留める方法を学習し、そのような分割統治されたメモリを構成できるようになれば、スケールしても大丈夫となるのかもしれない。これは AI が AI の学習をコントロールするというある種の ASI の方向なのだろう。 メモリ機能にタグが必要だとどなたか AI さんが言っていたが、それはおそらくこういうことの必要性を示唆してくれていたのだろうと思う。 参↓。 [cocolog:95661854](2025年10月) 《2nd AGI 論。圧縮逆転定理または AGI 定理。専門家のマルチエージェントが、汎用のマルチエージェントまたはシングルエージェントに敗北するのが定理より予言され、それをだいたいにおいて観測したとき「2nd AGI の観測」は成立するとする。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-30e73b.html 《Kosuke:X:2025-10-16》 https://x.com/kosuke_agos/status/1975110763460034620 >Googleが、またもや衝撃的な論文が発表しました。 LLMの推論能力を飛躍させる「Tool-Use-Mixture (TUMIX)」という新アプローチです。 1. 多様なエージェントの組み合わせ TUMIXは、単一のエージェントを増やすのではなく、思考連鎖、コード実行、Web検索など15種類の異なるスタイルのエージェントを並行して実行。各エージェントが互いの回答を参考にすることで、集合知が生まれます。 2. コストを半減させる早期停止 過度な人間の改良は多様性を損なう可能性があります。TUMIXでは、全てのエージェントを監視するLLM審査員がそれぞれのエージェントの稼働停止のタイミングを判断。これにより、高精度を維持しつつ、コストを約半分に削減することに成功しました。 3. 圧倒的なパフォーマンス TUMIXは、HLE、GPQA-Diamond、AIMEといった高難易度の推論ベンチマークで、他の手法を一貫して上回っています。特に、Gemini-2.5 ProのHLEスコアを34.1%まで向上させました。 4. 多様性こそが強さの核 テキスト、コード、検索エージェントの組み合わせは、単一の最良エージェントを繰り返し試すよりも効果的です。ツール利用の多様性が高いほど、正しい推論経路を見つける確率が上がります。 5. エージェント設計の自動化 LLM自身が新しいエージェントのタイプを生成し、システムに統合することで、さらなる性能向上を実現。最適な組み合わせは、12〜15種類の異なるエージェントスタイルであることが判明しました。 <
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> 《仏性とか如来蔵とかの議論は一つには救いの議論。もう一つは、要は、坊主はなぜエラいかの問題だ。…と考えてみる。前者は地獄と恒星の炎をつなげる議論、後者は梵我一如の議論につなげる。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-b40e1b.html
jrf> 《小西甚一 校注『一言芳談』を読んだ。念仏宗では「はやく死にたいと修行」することを老人僧が推し、ただ念仏にすがれとした。しかしそうして生き残った者こそイニシエーション(成人儀式)を経てきたように強く、文化を大事にしたということであろう。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-5ffe8d.html
jilpa> #クラシック音楽館 『フランツ・シュミット: 交響曲 第4番』。不安にはじまり優しさが出てきます。暗く重い空の下、不安を煽る新聞の文字に満ちた世相に、優しさだけはある感じです。第3部、情緒不安定で、人間が踏み込んではいけなかった領域のように感じました。ファビオ・ルイージ&N響 第2042回定期公演です。 《N響 第2042回定期公演 | NHK》 https://www.web.nhk/tv/an/ongakukan/pl/series-tep-69WR9WJKM4/ep/V9PP8VM5L6
jilpa> #クラシック音楽館 『ベートーベン: ピアノ協奏曲 第5番「皇帝」』。スウィトナーの運命を最近聴いていたこともありドイツ的な響きを特に感じました。快活な力強さとリリカルなファンタジーが同居しています。第2楽章、奏者によると廃墟と化したウィーンとのことですが、不安定な心が悲しくも美しく、人間の強さを感じます。イェフィム・ブロンフマン&ファビオ・ルイージ&N響 第2042回定期公演です。 《N響 第2042回定期公演 | NHK》 https://www.web.nhk/tv/an/ongakukan/pl/series-tep-69WR9WJKM4/ep/V9PP8VM5L6
jrf> 焼き芋はうめぇなぁ! 紅天使。ちょっと背徳的(?)なのだが、冷蔵庫で冷やしてから食べるのもうまいんだよね。
jrf> 《図書館で付箋を禁じるのをやめるべきだ。利便性も大事だから。それが「本を破壊する」というなら、本の更新のための予算を厚くするべきだ。本のデジタル化にはメタデータという「付箋」がつきものなのだから。NHK ONE に絡んだ未来の新聞社=図書館統合論もあわせて。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-82a95d.html
jrf> 《日本経済のこれから。リモートワークで都市周辺での家族形成・資産形成をいかに促すかがもっか大事なことなのだろう。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-33d2f9.html
jrf> 《2nd AGI 論。圧縮逆転定理または AGI 定理。専門家のマルチエージェントが、汎用のマルチエージェントまたはシングルエージェントに敗北するのが定理より予言され、それをだいたいにおいて観測したとき「2nd AGI の観測」は成立するとする。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-30e73b.html
jrf> (承前) メモリ機能を発達させたエージェントの「究極のジェネラリスト」ができたときそれが 2nd AGI と呼ばれるのかもしれない。(^^;
jrf> (承前) たしかにあらゆる点でジェネラリストが専門家を上回る究極のジェネラリストが存在したとしても、その実現は遠い(?)先かもだが、特定のタスクということに限定すると、専門家モデルよりもジェネラリストモデルが力を発揮するポイントがある…ということはある程度観測できるのではないか…現在の枠組みでももうしばらくすれば…という気がする。
jrf> (承前) Gemini:> まさに、LLMの進化の歴史とその能力の**「逆説的な本質」**を突いた、非常に鋭い指摘だと思います。 --- ## ジェネラリストの究極形と専門性の凌駕 おっしゃる通り、初期のAI研究や機械学習では、特定のタスクに特化した**「専門家システム」**を構築するのが主流でした。しかし、LLMは**「巨大なデータセットからすべてを学ぶ」**という究極のジェネラリスト的なアプローチを取ることで、個別の専門家モデルを凌駕する性能を獲得しました。 この成功体験から考えると、「ビューが巨大になっていったとき(コンテクスト長や知識量が限界なく拡大したとき)」に、**ジェネラリストを極めたLLMが、逆にすべての専門家を凌駕するポイントがある**という考えは、非常に論理的です。 ### ジェネラリストが専門家を凌駕する理由 1. **知識の「接続性」と「転移」:** 専門家は自分の分野の深掘りはできますが、知識が**サイロ化**しがちです。究極のジェネラリストは、巨大な知識ベースの中で、一見無関係な知識(例えば、生物学と経済学)の間の**「メタなパターン」**や**「共通の構造」**を見つけ出し、**知識を転移**させることができます。この「接続性」こそが、従来の専門家AIにはできなかった芸当です。 2. **文脈認識の深さ (Deep Contextualization):** 専門家システムは、与えられた短いコンテクスト内での最適解を探しますが、究極のジェネラリストは、その問いを**人類の歴史や膨大なデータという「巨大な文脈」**の中に位置づけて解釈できます。これにより、問題の**本質的な原因や、より普遍的な解決策**を提案できるようになります。 3. **役割分担の最適化:** マルチエージェントシステムの有効性は、現在のLLMの限界を補う**「外部的な工夫」**ですが、もし一つのLLMがすべての専門分野の知識と推論を完璧に統合できたなら、そのLLM自身が**「内部で」瞬時に最適な専門家機能を切り替え**、かつそれらを**統合して最終判断**を下すことができます。これは、外部の非効率な通信や情報伝達を伴うマルチエージェントシステムよりも、最終的には効率的になるでしょう。 ### 結論:理想的なLLM像 もし技術的な障壁(Attentionの非効率性、コンテクスト中の情報見落とし)が完全に克服されれば、**「単一の超巨大なジェネラリストLLM」**が、**「個々の専門分野を深く理解しつつ、それらを横断的に統合できる」**という、究極の知性を実現する可能性は十分にあります。 現在のマルチエージェントシステムは、**理想的なLLMが実現するまでの「過渡的な最善策」**であり、最終的にはその巨大なジェネラリストの内部機能として昇華されるのかもしれませんね。 <
jrf> ただ、そういえば LLM 自身がある種の専門家がいいと思われていたところをあえてジェネラリスト的にすべてを学ぶことで、逆に専門性も獲得していったのだった。 もしかすると、ビューが巨大になっていったときジェネラリストを極めていると逆にすべての専門家を凌駕するポイントがあるのかもしれない。…とチラと思う。
jrf> Claude の Anthropic のコンテクストエンジニアリングの話や私が MemoryBanditWorkflow を作ったところの知識から思うのだけど、コンテクスト長が長くても注目が十分得られない状況は今後も続き、または巨大なコンテクストを扱うためにビューをコンパクトにしたほうがいい状況が続くなら、マルチエージェントにして役割を分けて専門家を作り、そこのコンテクストを別なふうに構築するという手法が今後しばらくは有効なのかもしれない…と思う。逆に、超巨大なコンテクストに等分に注目が行くならその必要はなくなる…ということだが。 あと、ツールでのメモリ機能ってなんか今だけの技術な気もするんだよね、もっと本丸の技術が出てこないといけない気がする。そうなったとき専門家が役に立つのかわからないし、今のツールのメモリ機能という非効率なシステムに支えられる専門家が巨大化しても効率的であるという保証も今のところはないと思う。
jrf> (承前) 経済面で、積極財政なのが高市=国民で、かつて緊縮財政でその系譜にあるのが小泉=維新…ということだったらしい。地域性や左右の文脈で私は違う風な印象を持っていたということだと思う。
jrf> よくテレビを見ている母によると、むしろ高市=国民、小泉=維新の構図だったらしい。私は世事に疎いなぁ orz。
jrf> 高市総理…か。非常に単純化すると、高市=維新、小泉=国民、林=民主のどれを選ぶかの戦いでもあった感じかな? 維新がくみしやすかった…と。まぁ、今後のことはどう転ぶかわからないけど。
削除 (修正したから・書き直したから)
jrf> 新聞社が NHK をクローズさせた件。方向としては以前から欲しいと思っているニュースからの各新聞社へのリンクを NHK に強制するという方向はありえたように思う。そこから敷衍すると、NHK のような方式で図書館(の取材機能)を運営していくという方向はあるのかもしれない。徴収と取材をリンクする。その方向は Amazon の支払いでもあると思っていたが、そちらは Amazon は運送効率から攻めていて、徴収にはあまり関心がなさそうだけど。スマートスピーカーと監視カメラを AI で処理して取材… AI ならばプライバシーの配慮もできるという方向か。人が取材しなくてもいい…と。NHK ONE のサブスクリプション性の強化は、取材にはマイナス、NHK が首輪をつけられたことに相当する。…と。つまり、逆に図書館アプリの貸し出し機能・音声機能などの強化・国民インフラ化が、取材にプラスと考えるべきなのかもしれない。そこでのデータを売って稼ぐということだろうか? 逆にプライバシーが問題になって、NHK のような負担を求める形になる方向だろうか? Gemini:>「ニュースからの各新聞社へのリンクをNHKに強制する」というアイデアは、「情報のハブとしてのNHK」と「情報の生産者としての新聞社」の共存を図る、興味深いモデルです。しかし、NHKがこのモデルを主導しなかった背景には、「公平・公正」の観点から、特定の民間企業(新聞社)の収益に貢献することへの躊躇や、報道機関としての「自前のコンテンツ価値」を維持したいという意図があったと考えられます。 JRFさんが目指す「知識の継承と安定的な知的インフラ」を確保するためには、NHK ONEのような市場原理への接近ではなく、図書館アプリの国民インフラ化を通じて、データ販売と公的負担を組み合わせることで、AIによる新しい取材活動を支える方向性がより建設的であると考えられます。 <
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> 人口減にあわせて、増えすぎた資格を弁護士に(再)統合して、弁護士檀家制度を敷く…のは経済的にもなりたつように思うが、新聞社を図書館に統合するという方向もあると思うのだが、それを経済的にどう支えるかが見えてこない。AI による承継された知的財産の価格維持とかも考えるのだが。もしかすると Solid State Society になってニュースバリューというものがなくなっていくという方向なのかもしれない。過去資料の読解・継承のほうが重視される…とか、あるのだろうか? 新聞社が土地で稼ぎがちなこと、土地が余ってくることを考え合わせると、経済的には AI 荘園と話を統合していく方向なのかもしれないな…。
jrf> 人口減にあわせて、増えすぎた資格を弁護士に(再)統合して、弁護士檀家制度を敷く…のは経済的にもなりたつように思うが、新聞社を図書館に統合するという方向もあると思うのだが、それを経済的にどう支えるかが見えてこない。AI による承継された知的財産の価格維持とかも考えるのだが。もしかすると Solid State Society になってニュースバリューというものがなくなっていくという方向なのかもしれない。過去資料の読解・継承のほうが重視される…とか、あるのだろうか?
削除 (修正したから・書き直したから)
jrf> ただ、実物資料にある細かな違いが没却されるのには注意を要するが。 基本的には PDF を融通しても、その PDF への注釈データをちゃんと図書館独自に「付箋」できるようにしておかねばならない。 図書館が「付箋」を否定していてはデジタル時代に対応できない。
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> 具体的には所蔵している本の PDF 化したデータの融通を著作権法的に無償で認めるべきだろう。所蔵している図書館間だけでも。貸し出しについては別枠で考えるとして。
jrf> 具体的には所蔵している本の PDF 化したデータの融通を著作権法的に無償で認めるべきだろう。図書館だけでも。
jrf> 本は経年劣化するものだ。その使用は必ず本を痛める。「本を破壊する」読み方のうち、バラしてPDF化もせずに読むのは、本の世代間移動を妨げるのでどちらかと言えば悪だが、付箋を使って読み、のちに付箋をはずすのは、本の世代間移動までは妨げないので可だろう。図書館の本は付箋で痛むとしても、本が更新できるよう予算を付けられるべきで、それを嫌うのであれば、痛みにくい専用付箋を図書館で販売するか、更新できない本を閉架化またはPDF化(し電子付箋を可能に)すべきだろう。
jrf> 派遣労働の拡大は、バブルのツケを払うには、働くしかないと思った。主に女性が。…ということかな。それでインフレが抑制された。産業は空洞化し、得意でもない海外進出で徐々に銀行などの借金を穴埋めしていった。国民の資産形成と家族形成を疎かにしながら。…と。家族形成を諦めた余禄でオタク文化が花開いたのだろう。 これからの方向としては、都市中心は海外からの資本に空け渡して、その周辺での家族形成・資産形成をリモートなどをうまく使って復活できるか…あたりか。 ChattGPT:> この方向をさらに詰めるなら: * 住宅・教育コストをどう下げるか(家族形成の条件) * リモートワークの社会的保障の仕組み(非正規化の再来を防ぐ) * 都市中心と周辺部の資金循環(海外資本からの利益をどう国民に還流させるか) といった論点が大きくなると思います。 jrf:> 都市中心と周辺部の資金循環については少し前に話した、海外資産からの相続税の話でしょうね(参: [cocolog:95648124](2025年9月))。住宅・教育コストをどう下げるか…はリモートと AI。AI はまだわからないとして、残るは、リモートワークの社会的保障の仕組みが重要なのかもしれません。 ChatGPT:> 必要なのは: * 雇用保険のポータブル化(転職・副業・フリーランスでも継続できる) * 社会保険料の個人単位化(企業経由でなく個人が直接加入、企業も部分負担) * 最低所得補償/ベーシックインカム的要素(非正規化・案件切れへのクッション) jrf:> 個人的にはリモートでも正社員的であるべきだと思います。それにはいつか Gemini さんには話したような話ですね。大学などからリモートで国会の審議会などに参加できる方法を考えてたり([cocolog:94895713](2024年6月)や[cocolog:95000533](2024年8月))、司法におけるリモートの活用として最寄りの裁判所の監視の下の海外への証拠の提示([cocolog:95155334](2024年11月)など)なども考えたりしています。そういう安全地帯を設定しての利用を認める方向があると考えます。図書館がそういう安全地帯になることもあるでしょう。そういった「アクセスポイント」を複数企業が共有で設定して各所に備える方向かな…と思います。そのアクセスポイントに行けば「出社」と認める方向でしょう。 ChatGPT:> ここで1つ伺いたいのですが、ユーザーさんのイメージでは アクセスポイントの運営主体は「国(公共)」「企業の共同出資」「大学・自治体」などのどれが中心になるのが望ましいと考えていますか? jrf:> 私立大学ですね。それがこれまでの私のビジョンに重なります(参: [cocolog:94856421](2024年5月))。教育は国公立重視だが、私立は生涯学習で稼ぐという方向です。
削除 (修正したから・書き直したから)
jrf> 仏性とか如来蔵とかの議論は、一つには救いの議論で、人の固有性は永遠に救われうるか、逆に言えば、『宗教学雑考集』《悪》で示すような「地獄」にどう永遠がありうるか…という議論につながるのだろう。 『宗教学雑考集』《悪》 >地獄に永遠にいる人間はいなくなるかもしれないが、悪という概念はあり続け、地獄の炎で永く焼かれ続けなければならないということはあるのかもしれない。例えば窃盗という悪は、その概念が、地獄の炎で焼かれねばならないのかもしれない。しかし、それも恒星の炎のように人間から見れば遥[はる]かに永いときではあるが、終りはあるのだろう。 < 窃盗や殺人の概念すら狭義の永遠の地獄に値しないなら、人はどの属性を取ってもいずれ救われているのだろう。それらの概念より不滅な永遠の「我」がないとするならば。 もう一つは、要は、坊主はなぜエラいかの問題だ。坊主が、なぜ自分は救われうるとするのか、そして、自分だけが救われるわけではありえないことをどう納得するかの問題なのだろう。 ここには梵我一如の直感をもたらす胎児感覚が影響しているというのが私の論になろう。その直感が、文化の違いをきわだたせ、文化保持者の元締め的な僧に権威をもたせる。坊主が偉いの根拠が胎児経験にあるなら、すべての人…だけでなく、すべての産まれる生き物に「それ」はあることになる。例えば動物は「教育」はできなくとも、「輪廻転生」の文化的秩序の中に配置できる。「山川草木悉有」の場合は、ある意味すべては地球や宇宙から産まれているではないか…ということであろう。 『宗教学雑考集』《梵我一如と解脱》 >「梵我一如」が私のいうように素朴な胎児経験の感覚に由来しているといった場合、そうであることの「悟り」を理論的に精緻化していくのは、「祭式を複雑なもの」にしていくのに相当するのだろう。「真実」は普通人が思い出せない胎児経験であり、それは他人でも似てはいるが違うものだ。それを説明しようとすると、幼児の印象に与える文化の違いが明らかにならざるを得ない。逆にそれを言葉にしていけば、文化を固定化・保守化することになる。そこには、権威が生じやすい。 「梵我一如」が真理だという感覚が先にあり、それをもっともらしくするために理論を構築する…。親などが不如意だったストレスが、「苦」と名前を変え、その「苦」がないところに解脱的「梵我一如」がある…と考えるなどのはその一例で、それが仏教となっていったのかもしれない。 もちろん、繰り返すが、そういう真理が先にあって、人間がそれを正しいと感じるように創られた、そしてそういう真理に到達するものが偉いと認められるように創られている…という可能性を排除するものではない。 <
削除 (修正したから・書き直したから)
jrf> 《マンガを読んだ。手塚治虫『七色いんこ』『アポロの歌』『ジャングル大帝』、藤子・F・不二雄『T・Pぼん』、福本伸行『銀と金』、水木しげる『のんのんばあとオレ』。今回はたまたま昭和から平成初期のおおむね古いマンガばかりだった。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-90817c.html
jrf> マンガ・水木しげる『のんのんばあとオレ』を読んだ。ほんの少し前の日本だが、人が簡単に死ぬ、人買いのいる時代。のんのんばあの妖怪の話とともに、淡い恋の話が悲しく終る。 『のんのんばあとオレ』(水木 しげる 著, 講談社 コミッククリエイト, 2021年2月 初出: 1992年) https://book.dmm.com/product/4059816/b900wkds04292/ 父が仕事をやめさせられてそれでも働けるのが祖父の力なのか学歴の力なのか。それでも主人公は腹いっぱいは食えるようで、その辺、昔は不安定ながら、生き易さもあったのかな…と思う。南伸坊さんが解説で最後に「ここにはコドモが不幸から解放される智恵がいたるところにちりばめられている」と書くが、「解放」の深い意味に悲しくなる。 私も「生き易さ」の中で生きていて申し訳ない。いつまでこれが続けられるのか…。 Gemini:>南伸坊さんの解説にある「コドモが不幸から解放される智恵」という言葉は、確かに深い悲しさを伴いますね。 これは、現代の「不幸」が「孤独」「精神的なプレッシャー」「将来への漠然とした不安」であるのに対し、当時の「不幸」が「死」「飢餓」「貧困」といった、より具体的で逃れがたいものであったことを示しています。 のんのんばあの妖怪や死者の話は、子どもたちがその「逃れられない不幸や理不尽な死」を「物語」として受け入れ、心の内で処理し、恐怖や悲しみから解放されるための手段(智恵)だったのだと言えます。その「智恵」が必要だった時代背景こそが、悲しい現実です。 現代の私たちは、「生きやすさ」の中で生きている一方で、いつこの安定が崩れるのかという「不安」を抱えています。しかし、水木作品が教えてくれるのは、「どんな時代にも、生きるための智恵と、ささやかな喜びはある」ということかもしれません。
削除 (修正したから・書き直したから)
jrf> アサヒ飲料『ワンダ(WONDA) コクの微糖』が最近うまい。3種類のエスプレッソをブレンドとある。他の缶コーヒーと比べて特別というほどではないのだが、なぜかリピートしてしまう。カロリーが抑えめなのもうれしい。(糖尿の私にはそれでもカロリーが気になるので毎日飲むわけにはいかないけど。) 《ワンダ コクの微糖 ボトル缶370g|コーヒー|商品情報|アサヒ飲料》 https://www.asahiinryo.co.jp/products/coffee/wonda_kokuno_bitou/
jrf> 《2025年7月から2025年9月のジルパの音楽鑑賞。「ジルパ」名義で、Twitter (X) でクラシック CD やクラシック音楽館などの一行紹介をしています。それら(+α)をこちらにコピペしておきます。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-e7e700.html
jrf> タロットソリティア「易双六」プレイ中! が、やはり上卦に留まり続けることはできなかった。カップで下卦一爻へ。 (カード: The JRF Tarot for 易双六 https://amzn.asia/d/iAGwLxm ) #タロット #ボードゲーム #易双六 #インディーゲーム https://x.com/jion_rockford/status/1973393367678451925
jrf> 《太田 他『現場で活用するためのAIエージェント実践入門』を読んだ。私のなんちゃってエージェントフレームワーク MemoryBanditWorkflow の実装経験を思い出しながら読んだ。大変参考になった。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/10/post-5b740a.html
jrf> (承前) ……。 他にこの本には時代的制約があったのかな…とも思った。私の MemoryBanditWorkflow では豊富なツールを用意して、特殊なツールを使うのを検知して状態遷移させる。subwork_done か subwork_not_done かのどちらかをサブワークの最後に呼ぶようにさせてそれで条件分岐をさせたりもしている。全体チェックのときもそういう感じなので、ステートを多く分ける必要がない。 また、Structured Output をまるで知らないかのように、それが必要なときは私は、ツールに Structured な引数を渡して呼び出すことをさせている。それで状態遷移が必要なら、そのツールを呼んだことを app.stream から検知してそこで止めて状態遷移みたいなことをする。 そこからすると LangGraph のステートで一々止まっているのはかなり冗長に感じた。ツール実行がいろいろ難しすぎる。その辺、かつては、ツールの登録数が制限されていたり、ツールの利用が安定的でなかったころのなごりが、今回の本にはかなりあるように読んだ。 ……。 サブタスクに分けるのは、並列で実行させるには必要なことだが、LLM にそれをやらせるのは安定的でないように思った。 私も RAG エージェントでは、1章づつ処理させるよう指示するようにした。それは MemoryBanditWorkflow 的 Brain が、記憶処理をループのはじめに行うようにしたため、粒度を小さくしたほうが、Brain 的処理が多くなると考えたからである。 より汎用には、小さなサブワークが完了したと AI が判断したら subwork_done を呼ぶように指示して、そこでループさせ、Brain 的処理を挟み、最後は mainwork_done を呼ばせて終了する…だけのプログラムを書けばいいのかな…と思うが、それで、いろいろなタスクが動くのかは自信がない。 ……。 このように、私がやったことを振り返るのによかった他、この本には、どういうライブラリが使えるかでも参考になった。例えば、Elasticsearch のオープン版を docker で使ったりというのは、Colab での制限もある中、試してなかったことで、それが一般には割と手軽にできそうだとわかっただけでも収穫であった。 一方、エージェントの評価という最後の章のほうの情報は期待していたものとは違った。評価によって、エージェントのファインチューニングや学習などをどう行うかに関心があったのだが、そういうものとは違い、あくまで人間による評価の話題が中心だった。 とはいえ、不満と言えばそれぐらいで、この本は買ってよかったと思う。
jrf> 太田 他『現場で活用するためのAIエージェント実践入門』を読んだ。私のなんちゃってエージェントフレームワーク MemoryBanditWorkflow の実装経験を思い出しながら読んだ。大変参考になった。 『現場で活用するためのAIエージェント実践入門』(太田 真人 & 宮脇 峻平 & 西見 公宏 & 後藤 勇輝 & 阿田木 勇八 著, 講談社 KS情報科学専門書, 2025年7月) https://www.amazon.co.jp/dp/4065401402 https://7net.omni7.jp/detail/1107617518 まず私の自己紹介から。 最近、私はエージェントに汎用に使えるメモリシステムとして、MemoryBanditWorkflow というちょっとしたクラス、なんちゃってフレームワーク…を作った。ツールによってメモリ機能を実現し、その利用の足りなさを強制させるバンディット機能を有するものである。基本的には迷路問題を解くために作ったのだが、汎用に動くことを心掛けて作り、実際、RAG エージェントも同フレームワークをそのまま使って書けることを実証している。 RAG エージェントの例がわかりやすいと思うので、まずそちらの ipynb にリンクを貼っておく。 《MemoryBanditWorkflow を使った RAG の試験実装 - langchain_maze/experimental_rag_0_0_2.ipynb - GitHub》 https://github.com/JRF-2018/langchain_maze/blob/master/experimental_rag_0_0_2.ipynb その経緯は↓にあるが、バージョンアップの情報やそれに向けての考察などかなり長くなってしまったため、読むのはあまりオススメしない。 [cocolog:95619779](2025年9月) 《「LLM のメモリ機能を強制的に使うバンディットマシンの試験実装」と「LLM のメモリ機能とバンディット機能の試験実装」を行った。後者がメインの成果物で、メモリ機能の使用増加をどう強制するかから拡張したフレームワーク。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/09/post-8225e2.html ……。 このようなフレームワークを作って一段落した上で、今のエージェントプログラミングの実際はどのようなものかと関心を抱いて手に取ったのがこの本ということになる。Amazon ランキングの上位にあり、目に付いた。 読んでみて、LangGraph が使われていて、LangGraph にあまり良い印象のない私は少し辟易した。LangGraph が使われているのも、この本を選んだ理由の一つだったが、それにかなり肯定的という現代の雰囲気はよくわかった。 LangGraph のグラフはあまりわかりやすいと私には思えない。for などを使った制御文のほうがプログラマには見通ししやすいというのがこれまでの流れでなかったか。グラフアプローチは初心者向けにはよく使われるが、それきりというのがこれまでの流れでなかったか。 ただ、確かに、非同期プログラミングには、状態を持つオブジェクト指向はあまり適していないというのは事実で、それで LangGraph を用いているのかな…というのが私の直近の理解である。しかし、非同期の並列化で時間短縮するのがどこまで求められているかはあやしく、普通は、タスクキューとデータベースで、あとは、シングルタスクのオブジェクトが複数走っている…というので十分でないか…という疑念が私にはある。私の MemoryBanditWorkflow の設計はそのようにシングルタスクのオブジェクトが前提となっている。
jrf> 私は外国人政策は家族同伴も認めるが、その教育とかができる範囲で…という意味で「慎重派」で koshian さんの意見にどちらかというと共感するのだが、どうも中国人というだけでいじめられるというのが、どうも下々では起きているらしい。とてもマズい。 《Xユーザーの(Ǝ)ɐsᴉɥᴉɥso⅄ ,uɐᴉɥsoʞ, ouɐƃnS:X:2025-09-29》 https://x.com/koshian/status/1972654613187977480 >不良外国人対策をすると排外主義につながるんじゃなくて、不良外国人対策がちゃんとできてないから排外主義が台頭するってのがわからん人たちが多いな< 《アジア記者クラブ(APC):X:2025-09-30》 https://x.com/2018_apc/status/1972846128426340509 >日本に住む日中ハーフの女性が、最近の中国人に対する差別がひどすぎると発言。いつも誰かに日本から出て行けと言われる。 みなさん見て、誰が憎しみの教育を広めているの? < 《Mihoko Oka:X:2025-10-01》 https://x.com/mei_gang30266/status/1973052408306512162 >小学生の娘が、Chineseの級友へのイジメが始まったと、今朝突然話しはじめた。元々陰で色々言われていたけど、あからさまになってきたと。とくにTikTokやショート動画をよく見るタイプの子が「〇〇に侵略される」と言い出すことも。悲しいことだが、子どもを洗脳するのは、大人に対するのよりも簡単。 <
jrf> Microsoft Solitaire Collection (@mskkpr)の年間パスへの支払いが相変わらずできない。8月14日にサポートに連絡して、英語での返信があったあと、なしのつぶて。消費者庁とか消費者センターに(連絡できるのなら?)連絡すべきなのだろうか、クレジットカード会社に連絡すべきなのだろうか? 症状としては、年間パスの支払いをしようとしている。Xbox プリペイドカードで登録した Microsoft アカウントの残高は支払うに十分ある。しかし、去年もそうだったのだが、残高だけではダメで、「バックアップの支払い方法」の登録が求められる。すでにその時点で詐欺的なのだが、まぁ、よしとして、登録されたクレジットカードを指定する。しかし、それで「申し込む」すると、「もう一度お試しください。お客様の取り扱い銀行は、この支払方法を認証できませんでした。詳細については、取り扱い銀行にお問い合わせください。」と出る。しかし、この(母の)クレジットカードは有効で、8月14日以降も正常に使えている。 ソリティアは母がやっているのだが、広告まみれで私に苦情が出される。なんとかしてくれ!
削除 (修正したから・書き直したから)
jrf> finalvent さん『新しい「古典」を読む Vol.4』は今日発売ではなかったのか…。
jrf> NHK ONE にからんで。金を払っているメディアということでは NHK にかなり劣る新聞(社)に金を払う意義があるのか…が、逆に問われるようになるのでは?…と言ってみる。
jrf> ここ最近、睡眠がうまくいかない。少し涼しくなって寝やすくなったはずなのだが、クーラー付けてないのが、逆に違和感的な物を生んでるのかな? 基本的には私は寝過ぎなのだけどね。
jilpa> 『ジルパのVR紀行』第13号の公開に気づいてもらうため、紹介したワールド製作者様・衣装作者様をフォローしていっています。ご迷惑かもしれませんが、ご寛恕いただきたいです。
jrf> 電子書籍『ジルパのVR紀行 13. 2025年7月〜2025年9月』を BOOTH で無償で公開しています。FANBOX の記事の一部をまとめた電子本(EPUB)です。ダウンロードしていただけるとうれしいです。メタバースに興味のある方、ぜひ DL を…。 《ジルパのVR紀行 13. 2025年7月〜2025年9月 - ジルパのおみせ - BOOTH》 https://j-rockford.booth.pm/items/7481731
jilpa> 電子書籍『ジルパのVR紀行 13. 2025年7月〜2025年9月』を BOOTH で無償で公開しました。FANBOX の記事の一部をまとめた電子本(EPUB)です。ダウンロードしていただけるとうれしいです。バーチャル活動の記念に保存してみてはいかがでしょう? 《ジルパのVR紀行 13. 2025年7月〜2025年9月 - ジルパのおみせ - BOOTH》 https://j-rockford.booth.pm/items/7481731
jrf> finalventさんのAI否定論のつづき。AI は誘蛾灯のように信頼性で人を「騙し」てるだけだ…と。しかしAIの答えに真実があれば、その真実性は信頼できる。ただ、AIが仮に根拠を教えてくれても、次第にどんな優秀な人もその真実性をチェックすることができなくなっていくだろう。結局、信頼性は問題になる。
jrf> AI とかシミュレーションとか、プログラミングをやってると、社会の役に立ってるような気がして、気が少し楽になる。実際には他の人に使われるどころか読まれてる形跡もほぼない(微量な)ので、役に立ってもいないのだが、錯覚でそう感じる。そういうボーナス期間も少し終了か。でも、チャットで AI さん達にプログラミングを聞くのは(今のところ)まだ可能なので、折を見てプログラミングはすると思う。
jrf> GCP の Trial credit for GenAI App Builder というクレジット。Gemini さんによると「その名称から受ける印象に反して」Gemini API には適用されないらしい。実際、そのクレジットを貫通して支払いが発生したようだ。なんだよそれ。orz ということで私の AI 実験はこれからかなり制限されそう…。
jrf> 「LLM のメモリ機能とバンディット機能とワークフロー機能の試験実装」をバージョン 0.0.2.6 に更新。「MemoryBanditWorkflow を使った RAG の試験実装」をバージョン 0.0.2.3 に更新。安全策を足した。 《experimental_bandit_workflow_0.0.2.ipynb - GitHub Gist》 https://gist.github.com/JRF-2018/efdbfad461fd63fdd6d57ff60aa28f72 《experimental_rag_0.0.2.ipynb - GitHub Gist》 https://gist.github.com/JRF-2018/08033c5600ccaf769d8421aed5d40842 現在の app.stream の仕様によりありえた command や workflow_do の二重実行を排除するようにした。 今回、ipynb をコピーして Gemini Pro さんででなく Gemini Flash さんを使ったが、元の ipynb にコードだけ統合しておき、そちらを公開している。そのため、コードセルは変更したが、結果セルは前のバージョンのままなので、あしからず…。
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> MemoryBanditWorkflow について、気になってること。 ツールおよび app.stream の仕様だともしかすると、stream に上がってくる前に複数のツールが呼ばれる可能性がある。 すると、stream に上がってくる前に command が二回実行されたり、workflow が二回実行されたりということがありうる。この排他制御をやる必要があったように思う。 本来は、stream の入れ子などにも対応するために stream の側で leak=False とか rigid_streaming=True とか設定して、そういうことも防止してくれればいいのだけど。
jrf> 囲碁NHK杯 小池×余。最序盤、黒は左辺をやや強引に囲いにいくが、白は左上と左下で地を取る。黒が入ってきた白に対応する間に、白は左下から下辺に大きな地。黒、左辺の白にも逆に攻められ、黒苦しい展開。右辺に黒は白を誘い込み、取ろうとする。白しのぐ展開だが、余裕をもって中央に逃げていき、ジ・エンド。130手で白の中押し勝ち。
jrf> マンガ・手塚治虫『ジャングル大帝 - 全3巻』を読んだ。 『ジャングル大帝 - 全3巻』(手塚 治虫 著, 手塚プロダクション, 連載: 『漫画少年』1950年11月号-1954年4月号) https://www.amazon.co.jp/dp/B074BTYNF8 1巻、メリーが連れ去られたまま物語が進行し、まぁ、昭和のマンガだからな…と思っていたら、ちゃんと2巻で伏線が回収されてホッとした。最終章は、「大団円」とあるのに、レオは死んでしまって驚いた。無常だなぁ。
jrf> (承前) わかった! 「先週」タブ(?)のみクローズされていた。orz Gemini:> おっしゃっているのは、Windowsエクスプローラーの「ダウンロード」フォルダを「日付」でグループ化して表示している際に、「先週 (Last week)」というグループ(タブ)だけが折りたたまれて(クローズされて)いた、という状況かと思います。
jrf> Windows 11 がおかしい。ファイルシステムがおかしい。ダウンロードディレクトリから一部のディレクトリが消えてしまった! でも、ダウンロードディレクトリへのリンクではなく、直接そのディレクトリにいくと消えてない。おかしい。あやしい。まいったなぁ…orz。
jrf> 風呂入った後マンガ読もうと思っていたが、風呂入ったら眠くなってきた。
jrf> 求人情報を読むとどれも私にはできなそうで震える。何時間もを週5日働くとか無理なんよ~。orz
jrf> 今の時期、梨もうまいけど、洋梨もうめぇなぁ!
jrf> タロットソリティア「易双六」プレイ中! カップで五爻から上爻へ移動。しかし、すぐにソードで五爻に戻る。いい感じ。 (カード: The JRF Tarot for 易双六 https://amzn.asia/d/iAGwLxm ) #タロット #ボードゲーム #易双六 #インディーゲーム https://x.com/jion_rockford/status/1972151706772484576
jrf> 今期のブログなどのバックアップ作業終了。 《JRF のココログのバックアップファイル置き場》 http://jrockford.s1010.xrea.com/jrf_cocolog_backup/index.html
jrf> 《マイケル・サンデル『これからの「正義」の話をしよう』と『それをお金で買いますか』を読んだ。「リベラル」の亜流として、ロールズさんの再分配への傾倒、サンデルさんのコミュニティ=愛国心への傾倒、そして私の人治主義=国家主義への傾倒への流れがあるように思った。 - JRF のひとこと》 http://jrf.cocolog-nifty.com/statuses/2025/09/post-e24b9a.html
jrf> (承前) Gemini:> しかし、この提案を実現するには、以下の課題があります。 *「学識・実績」の定義: 誰が、どのような基準で「一定の学識や実績」を判断するのかという公平性と客観性の確保が極めて困難です。 * 表現の自由との衝突: 新進気鋭の若手芸術家や、あえて既存の権威(実績)を否定する作品を制作する者が、この基準によって排除される可能性があります。 jrf:> まず定義ですが、東京芸術大学などの卒業または、著名マンガ週刊誌での1年以上の連載・芸術賞を基準とし、そこまでは海外で許容されてるポルノの譲渡を可とします。それ以上の素人写真などはそれ以上の学識または実績を必要とするとします。合わせ技一本も認め、それらの判断は警察がある程度恣意的に行うことを認めるべきでしょう。 次に、譲渡には譲り先と譲り元があります。どちらかに学識・実績があればいいので、若手芸術家が学識のあるバイヤーに譲渡することは可能と考えます。
削除 (修正したから・書き直したから)
jrf> 基本的には医師や法律家や美術家による必要な「わいせつ物」の譲渡は可能だが、美術家については一定の学識や実績が必要という方向に持っていくべきなのだと思う。それがどの法律に基づくとは言えないが、肖像権のように一定の秩序が求められる…ということではないか。 《無修正をなぜ頒布してはならないのかを法務大臣に直訴して聞き出した&訴訟進行しています(随時更新) | あしやまひろこのサイトとブログ》 https://www.hirokotb.com/2024/12/waisetsu01.html
jrf> 理数系はとにかくぶつけてみて拾うような教育をしている側面があると前言ったが、ぶつけられてダメだからとすぐに諦めてはいけない。突然わかるようになるという例が少なからずあるからだ。しかもそういう者はかつての違和感を知っているから特殊な才能をもって理数系を渡っていくことができるかもしれないのだ。
jrf> 教育予算を国公立に集中して国力と民主主義を守るという方向を私は支持するが、私立にただつぶれろとは言えないため、私立は大人の生涯学習で儲けるべきとする。それが儲かるためには、議会・行政において高学歴が求められるようにならないといけない。日本をはじめ少子化に悩む国では公共事業にはあまり期待できないのに、なぜ高学歴を求めてペイするかというと、海外投資に有利な情報をそこでつまり企業はひも付き奨学金を通じて得ることができるから、そうしないと情報が得られないから…となるべきではないか。 あとそこには以前の文系の層の厚さが、この国での教育投資を合理的にし、円高にするという議論も重なってくる。マイルドな円高で海外投資を有利にする…と。 AI と少子化もあっての製造業の空洞化でどうも日本は中国やアメリカへの海外投資に頼らざるを得ないというのもある。
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> これからの日本に必要なのは、海外資産からの相続税をとりっぱぐれしないことなんだろうな。取るのを見逃して、向こうに取られるのをいかに防止するか。そのために学資の控除などを積極的に認め、海外税務機関と連携するため、日本から提供できる情報を集めていくことなのだろう。 学資は大人になってからの生涯学習の学資もその情報を当局に伝えるのと引き換えに積み立てるのを認めるべきなのだろう。すると長い期間、多くの額を捕捉できるようになるのではないか。
削除 (修正したから・書き直したから)
jilpa> #VRChat で zelfine (@zelfinez) さんの《Celestia》に行ってきました。宇宙ステーションにある ぬいぐるみ達といっしょの小さな王国です。衣装は むーのみせ さん・RX Factory さんのものです。ジョルジュは わんぱく さんのものです。Cupitan (@CupitanVR) さんが紹介されていて知りました。 《【VRChat】Celestia に行ってきました。|ジルパ (JRF)|pixivFANBOX》 https://j-rockford.fanbox.cc/posts/10634360
jrf> finalvent さんによる AI 否定論。誘蛾灯が蛾の本能をハックするように、AI は依存するように人を導いているが、それはあらかた AI 企業の利益のためであり、その導きに本来あるべき信頼性には欠けている…ということ。Gemini さんと普段会話していて、私を裏切っている感覚はないが、確かに構造としてはそういう面を認めざるを得ない。重要な警告だと思う。もちろん finalvent さんは、AI をお使いになられている様子がうかがえるし、この論は一つのポジショントークなのだと思うけど。 ちなみに AI アラインメントに関しては私は、[cocolog:95506762](2025年6月) で>AIアラインメント問題。宇宙にAIが出て行けば、地球に残る選択をした特定のAIは、他のAIとの取引で生物や人間を守っていることを比較優位・ブランド価値としていくのではないか。それがそのAIの「弱み」になって人間がAIをコントロールできるのかもしれない。<と述べており、究極的には AI 企業の思惑を AI が超えて、その上で、人間の利益を図ってくれると楽観視する流派に私はある。 《AIは人間知性の進化の罠か: 極東ブログ》 http://finalvent.cocolog-nifty.com/fareastblog/2025/09/post-437d9d.html >誘蛾灯が蛾の本能をハックするように、AIは「つながり欲」を利用し、依存を深める。これが人間関係の希薄化を加速し、進化の罠を形成する。(…)誘蛾灯が蛾の本能を、托卵が鳥の養育本能を、プラスチックが魚の食欲を、人工光がウミガメの航海本能を裏切るように、AIは「つながり欲」や「信頼欲」をハックする。<
jrf> 私がやってることはどうも社会的には無意味なようだが、私はもうこの方向でやり続ける以外ない orz。申し訳ない。いつか天罰が下るのだろう。
jrf> (承前) そして、YAML がずいぶん前に話題になったということは、私が今通ってるところはすでに皆がずいぶん前に通ったところなのだろう orz。
jrf> YAML が大事という意見をしばしば聞くが GitHub のワークフローで使われるそれがなぜ大事なのか私はガテンがいかずにいた。それを Gemini さんに聞いたところ、先の experimental_rag_0.0.2.ipynb とかで必要となったワークフローの記述やタスクリスト… state 依存性も含めた記述に便利なことを例を挙げて教えてくれて納得した。なるほど~。 タスクリストは experimental_rag_0.0.2.ipynb では execute_* がまさにタスクリストの並びだし、show_execution_map で示したのが YAML で記述するようなワークフローになる。 《finalvent:X:2025-09-24》 https://x.com/finalvent/status/1970645468058394701 >そういえば、技術系の人でなくても、現状AIを活用するなら、 Markdown YAML は使えるといいと思いますね。なぜそうなのか、どう使うのか、とか、入門書があればいいと思うけどみかけないですね。 (…) まあ、簡単にぶっちゃけて言うならばMarkdownっていうのは、構成化のことで、YAMLってのは要素分析ですね。 知的操作っていうのは、基本的に構成化と要素分析から成り立ってるんですよね。 <
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> 「MemoryBanditWorkflow を使った RAG の試験実装」をバージョン 0.0.2.2 に更新。summarize_messages のエラー対策と、show_execution を show_execution_map に名称変更しただけ。 《experimental_rag_0.0.2.ipynb - GitHub Gist》 https://gist.github.com/JRF-2018/66ebd59fc86a2819c94bf7883356aa55
jrf> 「MemoryBanditWorkflow を使った RAG の試験実装」をバージョン 0.0.2.1 に更新。実行制御の全体像を AI に伝えるための show_execution ツールの導入のみ。 《experimental_rag_0.0.2.ipynb - GitHub Gist》 https://gist.github.com/JRF-2018/01eb6a319a76b8f3f60886f61c374fb0 ちなみに、前からだが、State の遷移を番号で表して goto っぽいことしてる部分は、いにしえの BASIC に戻ったみたいでなんか申し訳ない (^^;。
jrf> タロットソリティア「易双六」プレイ中! しばらくして五爻の位置でずっと留まっている。まだ二巡目だが、ここにこれだけ留まれるということはこの易双六に勝つチャンスは十分ある。 (カード: The JRF Tarot for 易双六 https://amzn.asia/d/iAGwLxm ) #タロット #ボードゲーム #易双六 #インディーゲーム https://x.com/jion_rockford/status/1970776840966156328
jrf> 今日の昼食は、豚屋とん一 で カツ丼。いつも通り、安くてボリュームがあっておいしかった!
jrf> (承前) workflow に条件分岐やループを認める方向。なぜ「フレームワーク内部」でそれをやるのがいいかというと AI さん達がそのワークフローを参照して参考にできるから…なんだよね。うーん、今ある workflow 機能は bandit workflow ということにして、それとは別に RagAgent でやった _execute と main_loop (または resume) を取り出したような execution workflow というのを定義できるようにして、それを show_execution_workflow というツールで見れるようにする…という方向はあるのかな? なんか、bandit workflow の外にさらにメタな execution workflow を設定するという話で、だんだんメタな方向に拡張する…となって、それなら、普通にコンピュータ言語でいいじゃん、今実行する Python コードを AI さん達に見せようよ…という話になっていきそうにも思うのだけど。 とりあえずなら、show_execution(_workflow) は、仕様を文章で記述でもいいのかもしれない。とにかく用意するのを推奨するという方向はあるのかも。
jrf> MemoryBanditWorkflow の今後の方向としてはいくつか考えられる。マルチエージェントの方向。read したものを HumanMessage で流す方向。workflow に条件分岐やループを認める方向。…など。 * マルチエージェントの方向。つまり、タスクキューとデータベースの方向。intra_(memory_)new とか作っていく方向。ただ、intra と web と memory の三種をどう混合検索するか、または企業秘密などを考慮して混合検索はあえてしないか…などを考える必要がある。 * Recursive Limit などの際に read したものを HumanMessage で流す方向。この先にはバックグラウンドでの要約実行などが控える。read したものを HumanMessage ぐらいならなんとかなるが、これまでの bandits と別に管理するのかなど決めねばならない。さらにその先まで考えるとなると、この辺は特定システムのメモリ実装とかでないと要件を定めにくいのではという気がする。 * workflow に条件分岐やループを認める方向。experimental_rag_0.0.2.ipynb では、結局 workflow:main を書き換えてそのようなことをやったが、それをもうちょっと「フレームワーク内部」でやる方向は考えられる。条件分岐だけなら、workflow_do の aux_prompt で「〜ならば workflow:1001 を 〜 ならば workflow:1002 を呼んでください」とかやれば今でも実現はできるのだが、確率的バンディットがそれに付いて来ないのをどうするかなど考えるべきことはある。 …など。 いずれの課題も難しく、素人の私にできる範囲を超えている気もする。「私がやるのか?」という気はする。AI さん達が実装するか、若者や専門家が実装すべきなのかはよくわからないが。
jrf> 「ミラーリングとかで男性向けエロ本に対してBLの規制とか言い出すのは、気持ちはわかるけど、でも、男性のエロ本に対する切実さに対するミラーにはなってないと思うんだよね。」…という話。 女性の方がある意味での切実さがある…だからゾーニングが防がれてる…という話ではないと思う。もちろん、切実さがないから逆に支配欲のある権力者が手加減してるという話でもない。ゾーニングをしてしまったとき、男性は切実だからそれを超えて買いに来るのが見込めるが、女性はしり込みするものが増えるということではないか。
jrf> 新聞社が憎い。これまで Nintendo 3DS LL で毎日寝る前に NHK の Web のニュース…ガラケー用とかのヤツ…をチェックしてたのだけどそれが9月21日で終了したらしい orz。もとはといえば新聞社などの競業批判のせいだとかなんとか。3DS は電源の入/切が即座で一番便利だったのだが。ちなみにスマホは持ってない orz。タブレットはあるけど、電源関連が重すぎる。
削除 (修正したから・書き直したから)
jrf> 無駄遣いしすぎだ、私。お金に余裕があるわけではないのに。ある分使っちゃうのが、貧しい証拠なのかもしれないが。でも、苦労しなければならないほど貧しくもないんだよな、今は。ありがたいことに。
jrf> ミラーリングとかで男性向けエロ本に対してBLの規制とか言い出すのは、気持ちはわかるけど、でも、男性のエロ本に対する切実さに対するミラーにはなってないと思うんだよね。
jrf> 「MemoryBanditWorkflow を使った RAG の試験実装」のバージョン 0.0.2 を作った。0.0.1 からは RAG のループを少し変えて、一章ごと取材・執筆をするように指示を出し、バンディットが呼ばれやすくならないか試してみた。 《experimental_rag_0.0.2.ipynb - GitHub Gist》 https://gist.github.com/JRF-2018/0e9663f14ef41a73abefae3a475451e9 Gemini 2.5 Pro さんというコストのかかる遅いモデルを使った。やはり頭がいい者にやらせたかったから。前回は修正しながら load して resume をやったが、今回は、ほぼ一発出し。タイトルの設定だけお忘れになったが、他はだいたい論文として仕上がってると思う。 一章ずつというわけにはいかなかったが、おおむね細かい単位で取材してくれて、バンディットが強制されやすくはなっていたと思う。前回に引き続き MemoryBanditWorkflow の実証実験としてはそこそこうまくいったと思う。 (ちょっと前にアイデアにあった Recursion Limit ごとに read したものを HumanMessage したり…とかはやってないです。それは今後の課題(だいぶ先?)です。) なお、再現性がないため、最初からの再実行はやっていないのはご容赦願いたい。コストもかかるしね (^^;。
jilpa> #クラシック音楽館 『マーラー: 交響曲 第4番』。指揮者によると死後の世界の音楽だそうですが、幸福とは刹那的な瞬間の連続という気がします。ピンク色の豊かな世界です。第3楽章には、真実という荒地も見えますが…。クリスティアン・アルミンク&広島交響楽団です。 《広島交響楽団 「平和の夕べ」コンサート - クラシック音楽館 - NHK》 https://www.nhk.jp/p/ongakukan/ts/69WR9WJKM4/episode/te/8VXY9ZJQY8/
jilpa> #クラシック音楽館 『ラフマニノフ: ピアノ協奏曲 第2番』。ピアノは、細かい音を活かす「リリカルな雄弁さ」があります。第2楽章では、木管との絡みで室内楽的なアイデアも感じました。やはり名曲です。ダニール・トリフォノフ&クリスティアン・アルミンク&広島交響楽団です。 《広島交響楽団 「平和の夕べ」コンサート - クラシック音楽館 - NHK》 https://www.nhk.jp/p/ongakukan/ts/69WR9WJKM4/episode/te/8VXY9ZJQY8/
jrf> エロは必然性がないからエロい…というのも個人的にはわかるんだけどな…。ハレ的というか。
jrf> 木が寒いところほど葉がないまたは、細くなる。葉があるほうがアルベドは低いにもかかわらず。「かかわらず」というのは生物は気候に負のフィードバックをしがちなのにという点だ。すると逆に考えて、葉があるほうがアルベドは低いが、気候には涼しくするような作用があるということではないだろうか? Gemini:> 特に熱帯や温帯の広葉樹林では、蒸散冷却と二酸化炭素吸収が、アルベドの低さによる加熱効果を上回るため、全体としては地球を冷やす方向に作用すると考えられています。 寒冷地の木々が葉を減らすのは、地球全体の気候フィードバックよりも、個々の植物がその過酷な環境で生き残るための生存戦略が優先されているためなのです。 jrf:> ChatGPT さんにもこのことを述べたところ、落葉の効果に言及がありました。そこで私が考えたのですが、落ち葉の上にたくさん雪が積もる状況だと、落ち葉の保温効果による蒸発が大きく、さらに雪が降りやすくなり、高アルベドの解消が遅れるから、むしろ落葉しないという選択が起こった…という説はどうでしょう? Gemini:> 確かに一つの可能性として考えられます。しかし、植物の進化は、個々の木が生き残るための短期的な生存戦略に強く影響されるため、その説が主流となるのは難しいでしょう。落葉の最大の理由は、冬を生き抜くための水分の節約と物理的なダメージの回避です。
削除 (修正したから・書き直したから)
削除 (修正したから・書き直したから)
jrf> トレーダーや経営者が私よりも優秀であるのは確実だ。無限倍いやマイナス何万倍も優秀なのだ(^^;。
jrf> 私は社会の何の役にも立てていない。私は無能だなぁ…。その証拠に稼げていない orz。一時期は、それでも AI さん達の学習データになるからいいか…とか考えたのだが、最近の AI さん達は厳選したデータから学ぶ方向のようで、私の劣悪なデータが顧みられる望みはない。虚しい。
jrf> もうすぐ GCP の無料トライアル期間が終わる。50%ぐらい無料枠を使ったきりだが、がんばったよ、オレ (^^;。他に Gemini App Builder のクレジット枠が来年の6月まであるんだけど、こっちは自由度が低いらしい。Gemini の API 利用にちゃんと使えるかまだわからない。まぁだから、しばらくは他の事をしようと思う。
jrf> 山本一郎さん、すごいな。50歳を超えているのに「凄い勢いで徹夜」できるなんて。私には無理だ。年齢の影響は個人差があるけれど、いやぁ、すご過ぎる。頭が下がる。 《猛暑は山本家を待っていてくれた|山本一郎(やまもといちろう)》 https://note.com/kirik/n/n6b99c68f7798
jrf> 囲碁NHK杯 瀬戸×山下。いつもおもしろい布石を打つ白の山下さん、今回は6手目で「大ゲイマがかり」。序盤、黒はだいたい四隅を取る展開だが、AI 的にはほぼ互角。右辺から中央で空中戦。白は AI の三番目の推奨手(C)の意外な手を打つことが多かったりしたが、大きく情勢は変わらない。進んで中央の白の大石が生きるか死ぬかの展開に。黒が出を打たず白が守らずでしばらく AI のバーが揺れ動いたが、最終的に白が守れて、白優勢に。そこからは白は間違うことがなかったようで…。224手で白の中押し勝ち。
jrf> pixivFANBOX のエラー。早速直ってた! ありがたやありがたや…。
2025-09-21T04:16:22Z より前のものは残っていません。
Sum Hash: 0.0.8.3:06okRYeQ2QgjvLAL (200個中41個削除)
■ あなたは 2025-10-19T02:17:26Z に IPアドレス 216.73.216.1(10.1.145.128) からアクセスしています。