Menuボスの展望台ボスのTwitter/2025年8月
         Twitter/2025・・・8月  
 
    wpe4F.jpg (12230 バイト)       
 (/ネットより画像借用)
トップページNew Page WaveHot SpotMenu最新のアップロード   担当: ボス= 岡田 健吉

2025年 8月              
YouTube デモクラシー・タイムズ/ロゴ                                                  折原マチコ

    

   ツイート 記 録             

 8月  31日

 

 8月  30日

 

 8月  29日

《大規模言語モデルの考察》 (197)      
                            情報通信研究機構/NICT 鳥澤健太郎 ・フェロー  (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (13)


この “含意判定(がんい ・ はんてい)の・・・精度” を、日本語について、NICT 調べていま

す。それは、現在 <大規模言語モデル> では、高いもの92% だったと言います。

したがって…

100%でない以上、根拠を述べる際にも、<大規模言語モデル> は、発言を、誤る可

能性がある、と言います」

「うーん…」支折が、左右に傾けた。「これも… ”ややこしい問題” よ、ねえ…」

「そうですね…」茜が言った。「ええと…

鳥澤・フェロー は、この様に言っています。


「今後・・・

こうした 、<裏どり機能をもつ・・・大規模言語モデル> が開発されても、安易に信

用するのは禁物です。本来は、ユーザーが自ら、根拠として提示された情報を、確認

するのが望ましい・・・」


…と、いう事です。

 

《大規模言語モデルの考察》 (198)       
                                 オリジネーター ・ プロファイル 技術研究組合  (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (14)


ええ、それから…

Web上文章が、<AI> 出力した、著者不明文章によって汚染されると、“裏どり

の・・・根拠” に、使用できなくなる、恐れもある様です。

そこで…

2022年/末に…

国内メディア各社参画する、 オリジネーター ・ プロファイル 技術研究組合>

が、発足しています。この技術というのは、Web上テキストに、改変できない符号を与

えて“内容の責任者を・・・明示できる様にする ものです。

鳥澤さんは…

直接、この取り組みには、関わっていないそうですが…


「この手の仕組みを・・・構築することは、大切・・・」


…と、評価しています。

 

《大規模言語モデルの考察》 (199       

【● Unknown unknown に備えよ 】 (15)


鳥澤さんは…

現在の、<大規模言語モデル> めぐる状況を…


Unknown unknown・・・ つまり、未知なる未知 が、無数にある状況だ・・・」


…と、表現していますわ」

「ふーん…」支折が、微笑した。「やっと…

<Unknown unknown> という言葉が、出て来ましたね。意味は、何となく分かっていま

したが、日本語翻訳すれば、<未知なる・・・未知> と、いうことですかあ、」

「そうですね…」茜も、微笑した。「ええ…

<大規模言語モデル> 使用によって…

社会に、何が起こるのでしょうか。そこに潜む、未知チャンスリスクについて、その

ぼろげなイメージすら、私達にとっては未知なのだ、と言います。

そうした、二重未知なる事象に、対処することを、私達迫られている、様ですね…」

「はい…」支折が、うなづき大きくを吐いた。


 

 8月  28日

《大規模言語モデルの考察》 (194)     

【● Unknown unknown に備えよ 】 (10)


「うーん…」支折が言った。「どうすれば、いいのかしら?」

「どの様に…」茜が、微笑した。「工夫するかは、まさに、研究者見せ所だ、と言いま

す」

「でも…」支折が、をやった。「これは、研究というよりも、芸術感性ですよね…」

「そうですね…」茜が言った。「こんな研究にも、はあるわけですね。<AI 開発> では」

「あ、でも…」支折が言った。「そこが、核心的技術ですよね?」

「まあ…」高杉が言った。「人間に、似せようとするなら、そうですね…」

 

《大規模言語モデルの考察》 (195)       
                                                    (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (11)


「ええと…」茜が、“参考文献”を流した。「を、進めましょう…

他にも…

<大規模言語モデル> が、“まだ・・・獲得していない/獲得するべき・・・能力” が、

存在します。それは、すでに、各所話題にもなっていますが、 ハルシネーション

(幻覚)・・・の問題> です。これは、<大規模言語モデル> が…

物事の・・・真偽の判断がつかずに・・・堂々と・・・嘘をついてしまう現象 です。

ええと…

鳥澤さん/鳥澤・フェロー が、今回モデルに、こう尋ねた、言いとます。


<大規模言語モデル> が・・・偽情報を出して・・・みんなが、困っているらしいね 」


…と、入力したら…                                                 


私は <AI > なので・・・偽情報は出しません・・・ ”


…と、自信満々回答が、返ってきた、と言います」

「それは…」支折が、アゴを当てた。「困った、ものよねえ。堂々と、ウソをつくわけです

か…

入って来た情報が、偽情報本物か、判定できないわけかしら?つまり、入ってきた情報

は、一義的には、本物だ、という事かしら?」

 

《大規模言語モデルの考察》 (196)        
                             情報通信研究機構/NICT 鳥澤健太郎 ・フェロー   (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (12)


「そこは…」高杉が、微笑した。「逆に、いかにも、機械らしい所ですね…

およそ、トンチンカン回答を、堂々出力するという話は、何度も、聞いた事があります。

冗談ではなく、まさに、遠慮容赦がない様子ですねえ」

「うーん…」支折が、を傾げた。「でも、それは、困るわねえ…」

「はい…」茜が、を、引き結んだ。「そこで…

1つの、解決方法は…

<根拠となる情報や、Webページのアドレスを示す・・・裏どり機能を・・・搭載

る事だ、そうです」

「はい…」支折が、ユックリと、うなづいた。「”裏どり機能” ですか…」

「でも…」茜が言った。「これも…

利用者が、十分注意しながら、使う必要がある、と言います。

<♦ 文章A を根拠に・・・文章B は正しいと言えるか> を、判定するタスクは、“含意

判定(がんい ・ はんてい)と、呼ばれるそうですね。


 

 8月  27日

《大規模言語モデルの考察》 (191)     
                                                                            (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (7)


“エーゲ海での新婚旅行のプランは?” と…


<400億パラメーターのモデル> と、同じ質問をすると…

驚いたことに、実在旅行会社が扱う、旅行商品を挙げて、こう回答したと言います。


“○○ 企業の・・・○○プランが・・・お勧めです”


つまり…

この、<1790パラメーターのモデル> 回答は…

“餅のコトは・・・餅屋に聞け(/物事は、それぞれの分野の・・・専門家に任せるのが良

い) と、いうわけです。間違った回答ではないですが、あまりに、ソッケないものでした。

他の質問の、回答同様でした。数十文字短文で、回答出力される様になった、とい

う事です」

 

《大規模言語モデルの考察》 (192)       wpe7.jpg (10890 バイト)
                             情報通信研究機構/NICT 鳥澤健太郎 ・フェロー   (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (8)


「うーん…」支折が、を傾げた。「パラメーターが、400億から1790億に増えたのに、で

すかあ。進化ではなく、退化ですよねえ、」

「ええと…」茜が、を当てた。「鳥澤さんは、こう言っています…


「パラメーターを大きくすれば・・・必ず、賢くなるわけではありません」


…と。

この2つモデルは、パラメーター数違い以外は、演算時浮動小数点精度が異な

る程度で、ほとんど同じ設定だと言います。<事前学習の・・・テキストも、同じだ> と、

いう事です」

「ふーん…」支折が、コブシに当てた。

「それで…」茜が言った。「は…

浮動小数点精度を変えて、再度学習を試みているそうです。ただ、浮動小数点が、

デルの賢さと、どう関係するかは、分からないと言います」

支折が、無言で、コクリとうなづいた。

 

《大規模言語モデルの考察》 (193)     
                                     ヒューマノイド・ロボット   (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (9)


「ええ… 」茜が言った。「<大規模言語モデル> が…

まだまだ、”獲得できていない・・・能力” は、たくさんある、と言います。

その1つは…


「とがった・・・面白いことが、言えない点・・・」


…と、鳥澤さんは、話しています」

独特の…」支折が言った。「面白い言い回しですか…?」

「そうです…」茜が、大きくうなづいた。「現在の…

<大規模言語モデル> は…

単語間関係性や、文脈情報を元に、“もっとも、出現確率の高い・・・妥当な文章” を、

出力する、わけですね。

つまり…

一般論として言えば、創造的内容からは、程遠いわけですわ。でも、単に、確率の低い

単語をつないで文章を作ると、支離滅裂日本語になると言います。それでは、意味があ

りません」


 

 8月  26日

《大規模言語モデルの考察》 (188)      
                                                                    (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (4)


「ええと…」茜が言った。「開発主導した、鳥澤さんは…

<★ GPT> では…

<★ 大規模言語モデルが・・・単純に・・・文章の続きを、出力するシステム・・・>

…に、なった点が、これまでの言語処理技術との、“大きな違い” だと、見ている様ですね。

従来の…

文章生成技術では、質問応答にしろ、対話にしろ、“何を・・・言わせるのか” を、何らかの

形式で、決める必要があった、と言います。例えば、“論理式” など、ですね。

鳥澤さんは、この様に言っています…

 

《大規模言語モデルの考察》 (189)     
                            情報通信研究機構/NICT 鳥澤健太郎 ・フェロー   (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (5)


 

「それが・・・

<続きを・・・出力するだけで・・・こんなに意味のある内容が・・・出てくるのか

・・・というのは、大きな驚きでした。

“コロンブスの卵” というか、大きなジャンプだった、と思います」

 


…と。

やはり、<事前学習の・・・やり方/方法・・・> が、大きな飛躍になった様ですね。これ

が、Transfomerに、“深く考える事を・・・促した・・・” 様です」

「ふーん…」支折が、うなづいた。「子供の、教育/学習も、同じなのかしら?

ただ、丸暗記する教育よりも、“考えさせる・・・教育” が、多様応用力を生み出す、とい

う事かしら?」

 

《大規模言語モデルの考察》 (190)  
                                                                                    (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (6)


「そうですね…」茜が、を、引き結んだ。「Chat/・・・おしゃべりするの、場合は、

それが必要だ、という事ですね。

そして…

その先には、自立型の、<AI ・エージェント> や、ヒューマノイド ・ ロボットに、

(つな)がって行く、という事でしょう」

「まさに…」支折が言った。「AI/人工知能の、方向ですかあ…」

「そうですね…」茜が言った。「あ、を戻しましょう…

ええと…

このモデルは…7月4日発表されたわけですが…

同月下旬には…NICTは、★ 1790億パラメーターの・・・より大規模なモデルを、

完成しています。でも、このモデルでは、”予想外の事” が、起こった様です。


 

 8月  25日

《大規模言語モデルの考察》 (185)   
                             最大68億のパラメーターの、日本語 LLM を一般公開  (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (1)

               <★ NICT/鳥澤・フェローに聞く・・・/囲み記事・・・>

「ええと…」(あかね)が、“参考文献”を通しながら、言った。「この、囲み記事は…

<国立研究開発法人・・・情報通信研究機構/NICTの、鳥澤・フェローFellow/卓越した

業績や、専門知識を持つ人に与えられる、特別な称号や役職。大学教員、研究所の研究員など、研究職に従事する者に、多

く与えられる。) に、伺った記事ですね。

NICTは…

2023年7月4日に…

<★ 日本語に特化した・・・大規模言語モデルを試作した。> と、発表しています。

ええ…

例に、よって…

この資料も、古いわけですが、これは、“参考文献” が、日経サイエンス・・・2023・10

だ、からです。

そして、私達はまず、その開発当初からの、<AI 開発の技術> を、考察しているわけで

すから、当然とも言えるわけですね」

「はい…」支折が言った。「ニュース性低くても、その基礎知識を学んでいるわけですね」

 

《大規模言語モデルの考察》 (186)      
                             情報通信研究機構/NICT 鳥澤健太郎 ・フェロー   (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (2)


「そうです…」茜が、“参考文献“に置いた。そして、スクリーンボードコントローラー

を取り上げた。

「これが…」茜が、ボード画像拡大した。「NICT/鳥澤健太郎・フェローですね…

東北大学/乾健太郎・教授も、名前 ”健太郎” でしたね。この業界には、多い名前

のかしら?

あ、ええと…

鳥澤 ・フェローが…

<★ 日本語に特化した・・・大規模言語モデルの開発> を、主導した様ですね。

ええ、このモデルは…

<★ パラメーター数を・・・GPT‐3 (/GPTシリーズの第3世代)の、約1/5の・・・400億>

と、している様ですね。

これで…

<事前学習後> の、“ファインチューニング/・・・微調整” を、行わなくても…

“ エーゲ海での、新婚旅行のプランは?” とか、“AI で、科学研究を加速するには

?” などの質問に、回答できる様ですわ。

 

《大規模言語モデルの考察》 (187)  
                                                                                    (/ネットより画像借用)

【● Unknown unknown に備えよ 】 (3)


例えば…

新婚旅行プランでは、クルーズ船お勧めしていて、中身のある回答結果だ、という事

です。

   

<エーゲ海での新婚旅行のプラン・・・AI の回答・・・>


エーゲ海の島々を巡る、クルーズ船での旅が人気です。エーゲ海の島々は、ギリシャ

本土から離れているため、クルーズ船での移動が便利です。

クルーズ船での移動は、船内での食事やショーなども楽しめ、移動中も退屈しません。

エーゲ海の島々では、ギリシャの伝統的な建物や、遺跡などを見る事ができます。ま

た、エーゲ海の島々では、ギリシャの伝統的な料理や、ワインなども楽しめます。


 
                                                          (/ネットより画像借用)

   

…と、回答している様ですね、」

「うーん…」支折が言った。「エーゲ海の、新婚旅行かあ…」



 8月  24日

 

 8月  23日

《大規模言語モデルの考察》 (182)    
                                    原核から、真核生物誕生への道筋   (/ネットより画像借用)

● 残された疑問・・・とは? 】 (19)


そして、全生物体は・・・

<細胞分裂で誕生し・・・

この36億年の彼との、リンクが切れた時・・・生物体は、命の抜け殻/有機物の塊

・・・> となる、と考えます。この有機物の積層が、時を経て、石炭や石油などの化石

燃料になるわけですね。

また・・・

<投影されていた・・・

相互主体性世界の自己/・・・自我/・・・意識は・・・

合せ鏡の像が引く様に・・・主体の総元締め/36億年の彼に・・・回帰/還元されて

行く・・・> と、考えます。

これは・・・

<ウイルス ・ 細菌 ・ 植物においても・・・微弱な意識の流れは同じ・・・> と、考えま

す。

 

《大規模言語モデルの考察》 (183)   
                                                                           (/ネットより画像借用)

● 残された疑問・・・とは? 】 (20)


さらに・・・

<睡眠/人や動物の睡眠は・・・36億年の彼の領域に属し・・・充足/充電している

時・・・> と、考えます。

<生物個体に投影される本能も・・・ここで、充足される・・・> と、考えます。

ええと・・・

<潜在意識> や、<集団意識><種の・・・共同意識体> などは、上位・情報系

の回路になりますね。未知の領域です。

それから・・・

<人間原理空間における・・・相互主体性ストーリーの発現も・・・高次元座標に広が

る・・・絢爛・複雑な布模様・・・> も、<36億年の彼に・・・回帰して行く・・・> と、考

えます。


  

       潜在意識とは・・・                               (/ネットより画像借用)


   


《大規模言語モデルの考察》 (184)       

● 残された疑問・・・とは? 】 (21)


…という 、<仮説> ですが…

簡単に、一言言い切るのは、難しいですね。まだ、言いたい事 検証したい事は、山ほ

あります」

「はい…」茜が、大きくうなづいた。「ええ…

これは…

私達提唱して来た、新しい概念ですが、折に触れ、考察して行きたい、と思います。


あ、ええと…

もう1つ“参考文献” には、囲み記事がありますね。これも、<LLM/大規模言語モデ

ル> に関する、側面支援情報です。これも、考察して置きましょうか」

「はい…」支折が、うなづいた。


 

 8月  22日

《大規模言語モデルの考察》 (179)           

● 残された疑問・・・とは? 】 (16)


脳の中と違って…

私達は、<AI の・・・内部世界・・・> を、いくらでも、(のぞ)き見る事ができるわけです

ね。<● 私達の脳に似たAI/・・・大規模言語モデル> は、<私達自身を含む・・・

この世/この世界を知るための・・・力強いツール に、なりそうですわ」


「まあ…」高杉が、アゴ手を当てた。「この…

<全てのルールを・・・理解しないうちから・・・うまく活用する活用している とい

う、<ミッシング・リンク(/進化において、生物の系統を鎖の環に見立て、その欠けた部分(間隙)に想定される未

発見の化石生物。)の乖離(かいり)/・・・神の御業(みわざ)の領域/・・・文明における、壮大

な不可解 ・ 不可思議領域> に、対して

当・<HomePage/人間原理空間> では…

<ニュー ・ パラダイム仮説・・・36億年の彼> を、用意しています。その、<ニュー ・

パラダイム仮説> について、この機会ですから、改めて、簡単説明して置きましょう。

 

《大規模言語モデルの考察》 (180)   
                                                                           (/ネットより画像借用)

● 残された疑問・・・とは? 】 (17)


  

ニュー・パラダイム仮説・・・36億年の彼】


これは・・・

一言でいえば・・・

● 太古の海で・・・最初の生命が誕生して以来・・・生命は真の意味で、一度も、死

を経験していない・・・ という概念です。

生命体の本質は・・・

★ 呼吸/・・・新陳代謝 ・ 進化している事★ 自己複製/再生産し・・・増殖

する事 、そして、おそらく、意識/・・・自我をもつ事 でしょうか。

これらが・・・

どの様に確立されたのかは、今もって、壮大な謎ですが・・・

人間はその謎に、主体的に関わり・・・

まさに、その・・・

人間原理の・・・時空間世界/人間原理ストーリーの中で生き・・・喜怒哀楽の・・・

日々を体験・・・ しています。まさに、”人間として・・・生きている わけですね。

 
 

  太古の海  シアノバクテリア                                                                           (/ネットより画像借用)

 

《大規模言語モデルの考察》 (181)   
                                                                             (/ネットより画像借用)

● 残された疑問・・・とは? 】 (18)


さて・・・

原始地球/太古の世界で・・・

原初の細胞分裂の中で・・・形成 、完成された生物体は・・・その命の本質が、細

胞分裂で継承され・・・36億年の時空間座標の広がりの中で・・・脈々と、今も、生き

続けている 様ですねえ。

その・・・

”命の本質/・・・何者か・・・” に・・・

”人格” を、付与したのが、・・・36億年の彼・・・ です。グローバル・ブレイン、

地母神/ガイアの・・・概念・・・ とも、近いものです。

ええ・・・

小さな、蚊(カ)や蠅(ハエ)や、膨大な量の昆虫類が・・・

全て、見事な飛行をこなし、増殖できる本能は、<36億年の彼と・・・リンクしている

から・・・> と、考えます。

絶妙な飛行術や、膨大な遺伝子発現の光景は、”個別の個体/・・・生物体” の中に

あるのではなく、・・・36億年の・・・彼の側・・・ に、あると考えます。

地球表層世界を覆(おお)いつくす・・・

凶暴的な緑の繁茂 、 機動性遺伝子とも言えるウイルス 、 細菌 、 動物 、 高度な知

能を持つヒト/人間も、全て、”原初の・・・細胞分裂” から、生まれて来ています。

つまり・・・

それが、”おおよそ・・・現代/人類文明の・・・ニュー ・ パラダイム・・・” になって行く

と、考えます。


 

 8月  21日

《大規模言語モデルの考察》 (176)     
                                    東北大学・教授 /乾健太郎さん    (/ネットより画像借用)

● 残された疑問・・・とは? 】 (13)


「そうですね…」茜が、小さくうなづいた。「ええと、こうした点を、(いぬい)さんは、この様

話しています…」


 

「その観点で言うと・・・

<大規模言語モデル> と、脳の働きには、アナロジーanalogy/類推(るいすい)または、類比

(るいひ)が、あるだろうと思います。<大規模言語モデル> の研究によって、脳の理

解も、進むかも知れません。」

 


…と、言うことです」

「そうですね…」厨川アンが、赤毛を当て、を傾げた。「前にも

少し触れていますが…

すでに、<大規模言語モデル> は、脳の解析にも、用いられ始めていますわ。…

 

《大規模言語モデルの考察》 (177)      
                                   東北大学・教授 /乾健太郎さん  (/ネットより画像借用)

● 残された疑問・・・とは? 】 (14)


<fMRI(磁気共鳴・機能画像・装置)の中で、人が解いたのと、同じ課題を、<大

規模言語モデル> にも、解かせています。

<ニューラルネット内部の・・・ベクトル・・・> と、脳活動比較する研究です。<fMRI

の・・・画像解析結果> と、<大規模言語モデル内部の・・・ベクトル表現> は、うまく

対応すると言う報告は、増えていますわ。

もちろん…

<大規模言語モデル> の、仕組みが全て、そっくりと言うわけではありません。

Transfomer> は、グーグル研究者発明した、<1つの・・・ニューラルネット構造

に、すぎません。

現/段階の…

<BERT> <GPT> よりも、もっと効率的学習方法言語モデルが、今後も、どん

どん登場して来ることが、予想されます」

 

《大規模言語モデルの考察》 (178)    
                                                     (/ネットより画像借用)

● 残された疑問・・・とは? 】 (15)


「はい…」茜が、コクリとうなづいた。

「でも…」アンが、口元に、かすかな微笑を浮かべた。「どうやら…

<私達の脳と・・・大規模言語モデルは・・・情報処理の方向性が、似ている・・・>

ですね。

それは、例えば…

<直ぐには、理解しきれない・・・複雑な外界の情報を・・・丸ごと飲み込む と、い

う事です。そして、<全てのルールを・・・理解しないうちから・・・うまく活用する

いう、方向性ですね。

私達は…

物理法則を知らなくても、体を動かすことができますし、言語文法 を、全て知らなても、

自由言葉(あやつ)ことができますわ。これは、<大規模言語モデル> も、同じ

のです。


 

 8月  20日

《大規模言語モデルの考察》 (173) 
                                   <LLM/大規模言語モデル>  (/ネットより画像借用)

● 残された疑問・・・とは? 】 (10)


 

「それは、結局・・・

<大規模言語モデル> が、機能的に言語を処理しているからだと、思うんですよ。

言語の、捉え方って、2通りあります。

1つは、“演繹的” なやり方・・・

文法や、単語の意味などが土台にあって・・・そこから様々な文章が生み出される・・・

という考え方ですね。

そして・・・

もう1つは、“帰納的” なやり方・・・

まずは、実際の言語の・・・使用例を丸ごと受け止めて・・・そこから、抽出できそうな

ルールを・・・見つけて行くわけですね。

 

《大規模言語モデルの考察》 (174)   
                                                            (/ネットより画像借用)

● 残された疑問・・・とは? 】 (11)


そもそも・・・

私達も、日頃使っている・・・

自然言語というシステム自体が、まだ不明な点を多く含んでいます。<大規模言語

モデル> の、振る舞いの全てが、解明できないというのは、言語を “帰納的” に扱

っている以上、避けられない、宿命なのだと思いますね。」

 


…と、いう事ですわ」

「ふーむ…」高杉が、上体を傾けた。「そうですねえ…

<大規模言語モデルに・・・不明な点が多いと言うのは、結局<この AI を通

じて・・・言語そのものの・・・不思議さ!! が、見えて来ている、ワケですねえ、」

 

《大規模言語モデルの考察》 (175)   
                                                           (/ネットより画像借用)

● 残された疑問・・・とは? 】 (12)


「そして…」茜が言った。「別な見方を、すれば…

<大規模言語モデル> は…

<言語の様な・・・複雑なシステムを・・・丸ごと受け止められる・・・AI だ とも、言

えるわけです。

文章に並んでいる、単語背後には…

論理的規則としては、”書き出す事が難しい・・・曖昧なルールの数々・・・” が、潜んでい

、わけですね」

「ふーむ…」高杉が、を当てた。「<● このAI /・・・大規模言語モデル> は…

<分散表現> によって、”ルールの・・・かなりの部分をコピー・・・”  して…

あたかも、”システムを、理解している様に・・・振る舞うことができる、様ですねえ、」


 

 8月  19日

《大規模言語モデルの考察》 (170)   
                                   <LLM/大規模言語モデル>   (/ネットより画像借用)

● 残された疑問・・・とは? 】 (7)


 

「何故・・・

そんだ事が成り立つんだろう、という事については、理論的解明がなされていないの

が、現状です。だからこそ、この <AI> の振る舞いを、もっと詳しく調べる必要があ

ります。

不明な点が、あるという事は・・・

<現状の・・・大規模言語モデル> を、さらに超えたニューラルネットを、開発できる

可能性があるという事です。

<GPT> や <BERT> の性能の源になっている、<Transfomer> はすごいです

が、あくまでも現時点での最高性能というだけで、理論的に、これが最高性能と示さ

れたわけではないのです。もっと良い構造の、ニューラルネットがありうるわけです」

 


…と、言っています」  

 

《大規模言語モデルの考察》 (171)  
                                      AI・ロボット                (/ネットより画像借用)

● 残された疑問・・・とは? 】 (8)


「うーむ…」高杉が、腕組みをした。「<GPT> <BERT> を含めた…

<大規模言語モデル> 振る舞いには、現状ではまだ、理解できない問題が、多くあ

る様ですねえ。

しかし…

<人間が創ったのに・・・人間が理解できない・・・人工物 が、

存在していると言うのは、不思議であり、納得の出来ないものです。

我々は、今/現在

旧約聖書 にある様な、<いわゆる・・・バベルの塔を・・・創出している・・・> ので、

しょうか。<禁断の・・・神の領域 に、踏み込んで、いるのでしょうか?」

「はい…」茜が、うなづいた。「現在日本は…

 

《大規模言語モデルの考察》 (172) 
                                     生命の神秘           (/ネットより画像借用)

● 残された疑問・・・とは? 】 (9)


トランプ大統領アメリカと、自動車輸出関税の事で、難儀(なんぎ/苦しみ悩むこと。苦労するこ

と。)を重ねていますが、少なくとも、“自動車と言うのは・・・よく分からないけど・・・走るんで

と、いう様な、代物(しろもの/人や物を、価値を認めたり、あるいは卑しめたり皮肉ったりするなど、評価をま

じえていう語。)ではないわけですわ。

そして…

“アメ車/アメリカの車” が、何故日本で売れないかも、ハッキリと、分かっています」

「でも…」支折が言った。「<Chat GPT> は、違うと言うわけですね…

<著作権は・・・神にある のではないか、という事かしら? <バベルの塔の・・・ス

トーリー> では、民衆は、<神の逆鱗に・・・触れ て、互いに言葉が通じなくなって、

バラバラになって行くわけよねえ。

<AI/人工知能> も、神の逆鱗に触れ、<Transfomer> を、破壊され、<神話的/

原型ストーリー> に、回帰して、行くのかしら?」

「ええと…」茜が、口元微笑した。「神の逆鱗は、ともかく…

現段階では、理解できない、という事ですね。ともかく、乾さんは、この様に話しています。


                                     

 8月  18日

《大規模言語モデルの考察》 (167)  
                                                (/ネットより画像借用)

● 残された疑問・・・とは? 】 (4)


ニューラルネットの規模が大きくなり過ぎると、タスクの正答率が落ちるというのが、

これまで、自然言語処理だけでなく、機械学習の常識でした。

やたらと・・・

パラメーターの数が増え過ぎると、ニューラルネットの内部で、“過学習” という状

況が発生し、学習データをただ丸暗記しただけで、データの内部にある特徴を、上手

く抽出できなくなるのです。。

ところが、近年・・・

<深層学習> では、タスクの正答率が下がらないどころか、ニューラルネットを

大規模化しても、むしろ、上がる事さえあるという報告が、増えています。

 

《大規模言語モデルの考察》 (168)        

● 残された疑問・・・とは? 】 (5)


特に <GPT> は・・・

代を追うごとに、パラメーター数が桁違いに増えて行きましたが、それに合わせて、

言語の理解度を測る、様々なベンチマークの指標も、上がっています」

 


これは…

GPTが・・・あらゆるタスクを・・・生成問題に還元できる・・・> という事も、関係

ているのでしょうか? いわゆる、事前学習、やり方、問題ですね。

ええと、乾さんは、これに対し、この様に、言っています。

                                                     

 

「直感的な、理解で言うと・・・

<GPT> は、個別の問題を解いているのではなく、問題文に続く最も確からしい文

章を、あらゆる単語列の可能性の中から、直接決定しようとしている、とも言えます。


  

   GPT・・・即答するモデルと、時間をかけて、推論するモデルの統合     (/ネットより画像借用)                                   


《大規模言語モデルの考察》 (169)    
                                                   (/ネットより画像借用)

● 残された疑問・・・とは? 】 (6)


非常に広大な、探索空間の中から・・・

正解を探す、難しいタスクを解いているわけで、だからこそ、ニューラルネットのパラ

メーター数や、事前学習で学ぶテキストの量を大きくする事が、性能アップにつなが

っているのだろうとは、思います。

でも・・・

これがまた、不思議なところです。これだけ大きなニューラルネットを使って、しかも

広大な探索空間の中から、正解を探すなら、普通はファインチューニングの段階で、

もっと、大量の教師データが必要なんです。」

 


ふーん…

GPT> というのは…

学校を・・・

卒業したての新人が・・・入社第1日目で・・・あらゆる部署の仕事をこなしている・・・

…様なもの、ですね。どうして、、こんな事事が、、可能能なのでしょうか??

ええと、(いぬい)さんは、この様に、説明しています。


 

 8月  17日

《大規模言語モデルの考察》 (164)     
                                     東北大学/乾(いぬい)健太郎・教授   (/ネットより画像借用)

● 残された疑問・・・とは? 】 (1)


「ええ…」茜が、ユックリと、スクリーンボードを眺めた。

ボードには…

<自然言語処理> 研究している、<東北大学/・・・乾健太郎・教授> 画像が、

拡大されていた。

「こうした…」茜が言った。「<● 大規模言語モデルの・・・登場> は…

<自然言語処理の・・・研究者> からは、どの様に見えているのでしょうか。長年にわた

り、自然言語処理研究して来た、東北大学・教授/乾(いぬい)健太郎さん に、聞いてみ

ました。

ここからは…

インタビュー形式になります。(いぬい)さんは、この様に話しています。

 

《大規模言語モデルの考察》 (165)        

● 残された疑問・・・とは? 】 (2)


 

<● 大規模言語モデル> は・・・

事前学習の段階で、言語の知識や世界の知識を、かなり獲得できていると思います

ね。コンピューターに、こうした知識を獲得させるにあたって、大きな障壁となるのが、

“言語の・・・同義性” です。

例えば・・・

“和服”“着物” のような語は、見た目は違うのに、意味が似ているわけですが、

<大規模言語モデル> は、こうした語も、上手く学習できている様です」

 


それは、やはり…

単語意味を、<分散表現の・・・ベクトルで、捉えている・・・> からでしょうか。ええと、

乾さんは、この様に、話ています。

 

《大規模言語モデルの考察》 (166)      
                                                      (/ネットより画像借用)

● 残された疑問・・・とは? 】 (3)


 

「そうですね・・・

実は・・・

<分散表現> を使うと、よい言語モデルが作れるはずだという、アイデア自体は、

Word2Vec> などが、出て来るよりも、ずっと前からあったんです。

ただ・・・

単語の多面的な意味や、ニュアンスを反映した、<上手な・・・分散表現を作る方法>

を、コンピューターにどう教え込むか、という点が、長らく課題だったんですよ。

それが、ニューラルネット、特に <深層学習> の登場で、変りました」

 

例えばどの様な点かという事ですが、乾さんは、この様に言っていますわ。  

 

 

「1つは・・・

やはり・・・

<大きい・・・ニューラルネットを・・・使っていいんだ という、驚きですね。


                    東北大学・教授 /乾健太郎さん      (/ネットより画像借用)



 8月  16日

 

 8月  15日

《大規模言語モデルの考察》 (161)     
                              ジェフリー ・ ヒントンGeoffrey Everest Hinton (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (48)


「他に…」茜が、みんな見回した。「何か、質問はあるでしょうか?」

ヒントンは…」北原が、頭の上を置いた。「ノーベル物理学賞受賞したわけでが…

<深層学習/・・・ディープラーニング> を、研究していたわけですね。

それと、<Transfomer> は、どう結びついて、いるのでしょうか?」

「はい…」茜が、うなづいた。「確かに…

その辺りは、説明不足していたかも知れません,ね。

ええと…

ジェフリー ・ ヒントンGeoffrey Everest Hintonは、イギリス生まれ、コンピューター科学者

であり、認知心理学cognitive psychology /・・・精神過程 (例えば…注意、言語使用、 記憶 、 知覚 、問題解

決、 創造性 、 論理的思考 など) に関する、科学的研究。)研究者ですね。

そして…

<ニューラルネットワークの・・・研究> をしていて、AI/人工知能の研究の・・・第

一人者 です。

 

《大規模言語モデルの考察》 (162)        

【● 広く、深く学ぶ・・・Transfomer 】 (49)


米/プリンストン大学Princeton University研究者である、ホップフィールドJohn J.

Hopfieldと共に、2024年度の、ノーベル物理学賞受賞しています。

ええと…

受賞理由は…

<深層学習の・・・基礎を・・・築いた業績> と、いう事ですわ。

ですから、そうした基礎の上に、 Transfomer>  が、登場したことになります」

「それと…」北原が言った。「改めて、聞きますが…

<深層学習/・・・ディープラーニング> の、定義とは、どの様なものですか?」

「はい…」茜が、うなづいた。「ええと、そうですね…


 

                                                          (/ネットより画像借用)


《大規模言語モデルの考察》 (163)     
                                                    (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (50)


IT用語集 によると…

  

<深層学習 (ディープラーニング)> とは・・・

 

深層学習、またはディープラーニングとは・・・

人間の神経細胞の仕組みを再現した、ニューラルネットワークを用いた機械学習の

手法の1つであり、多層構造のニューラルネットワークを用いることが、特徴です。

現在では・・・

画像認識や、音声認識、翻訳など、様々な分野で大きな成果を生み出しています。

深層学習の仕組みを使って、画像認識や、音声認識などを行うには、まず、ラベル付

けされたデータ (教師データ)を用いて、学習させる必要があります。

例えば・・・

手書きの、数字をAI によって認識させたいといった場合、手書きした数字の画像と、

その画像に書かれた正しい数字を示したラベルをセットにした、教師データを用意し、

多層構造のニューラルネットワークに入力します。

この教師データを使って、自動的に学習を行い、手書き数字を認識できるようになる、

という仕組みです。

ただ・・・

認識精度を高めるためには・・・

膨大な量の学習データが必要であり、従来はそれを用意することが困難でした。しか

し現在は、インターネットの普及などによって膨大なデータを用意することが可能にな

っています。

また・・・

学習には・・・

膨大な計算を行う必要がありますが、これもコンピューターの進化によって、短時間

で、学習できる環境を整えられるようになりました。このように、環境が整備されたこ

とも、深層学習が、進化した大きな要因です。


  


…と、いう事ですね」

「はい…」北原が、を傾げ、うなづいた。


 8月  14日

《大規模言語モデルの考察》 (158)   
                                                              (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (45)


<GPT> 場合は…

そのままでも、ある程度タスクをこなす事が、可能な様です。もちろん、調整を行った方

が、精度は上がるという事ですね。

つまり…

<GPT> は、単語意味や、文法だけにとどまらず…

<★ タスクの解き方・・・そのものも・・・事前学習で・・・それなりに獲得している

と、いうことに、なる様です。

「ふーん…」支折が言った。「事前学習のやり方で、そんなに違って来る、わけですか…」

「そうですね…」茜が言った。「ええと…

このコトに関して、“参考文献” による説明は、ここまでです。まだ、開発途上にある、とい

う事ですね。

 

《大規模言語モデルの考察》 (159)   
                                                    (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (46)


<AI の・・・研究開発> は…

日進月歩で、進行している事が、予想されます!

この “参考文献” は…

日経サイエンス…2023/10 の、ものです。

前に考察した、《AI の・・・考察》 は、日経サイエンス…2024/02 の、ものですね。

いずれも…

だいぶ前のものになりますが、開発の経過/基礎を整理するという事で、古い資料使用

して来ました。

ええ…

そういうわけで、現状相当に、進んでいるものと思われます。2025年度末頃までに

は、理化学研究所/泰地真弘人さんグループの、 基盤モデルの・・・試験版>

も、リリースされる様です。あ、これは、早ければ、という事ですが…

 

《大規模言語モデルの考察》 (160)     
                                                          (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (47)


さあ…

を、簡単に、まとめて置きましょうか。

<● 大規模言語モデル> は…

<★ 単語の分散表現> と、<★ Transfomer> の、組み合わせで、誕生したという事

ですね。

そして…

 <この・・・AI > は…

<言語や自然現象の・・・複雑なシステム> を、まるごと受け止められる点で、<ヒト

の脳と・・・よく似た情報処理> を、行っている、という事です。

それから…

<大規模言語モデルの・・・コア技術/Transfomer> は、<脳/海馬の・・・数理モデ

ルと・・・対応関係> が、あるようです。理解する、ヒントになる、可能性がある、とい

う事ですね」

「はい…」支折が、コクリとうなづいた。

 
 

 8月  13日

《大規模言語モデルの考察》 (155)   
                                                (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (42)


この便利さが、評判になり…

BERT> 使用する、自然言語処理研究者が、急増した様ですね。一時は、

<BERT があれば・・・何でもできる とさえ、言われた様です」

「ふーん…」支折が言った。「でも、 GTP/Chat GPT> が、出てきたわけですか、」

「そうです…」茜が、うなづいた。「明智光秀の…

3日天下(/明智光秀は、主君を裏切り、本能寺で織田信長を倒しました。しかし、わずか3日で、羽柴秀吉に倒された古

事。)ではありませんが、<グーグルの・・・BERT> を、たった数年追い抜いたのが、

<オープンAI(社)の・・・GPT> です。

ええ…

この <GPT> と、<BERT> は、よく似ています。

 

《大規模言語モデルの考察》 (156)   
                                 大規模言語モデル/ BERTとGPT の学習の様子    (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (43) 


<最初に・・・

  事前学習で、単語当てクイズを解いて・・・

 語の意味を表す、ベクトルに・・・

  他の文章や、文脈の情報が・・・織り込まれて行く・・・>


という点では、同じだ、という事ですわ。

ただ…

<GPT> <BERT> では…

<事前学習で解く・・・クイズの出題の方法が・・・異なっている と、いう事です。

<BERT> は、<★ 文章の途中を・・・1単語隠した、穴埋めクイズ> を、解きます。

これに対し…

<GPT> は、<★ 文章の途中から・・・後ろを全て隠して・・・次に来る単語は何かを

・・・それまでの文章から・・・予測・・・> させる、様です。

これは…

いわば、<★★ 単語生成クイズを・・・解いている ことに、成るのだそうです」

 

《大規模言語モデルの考察》 (157)      
                                                          (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (44)


「うーん…」支折が、を揺らした。「それは、確かに相当に違うわねえ…」

「こうした…」茜が言った。「<★ GPTの・・・事前学習の、やり方> は…

後で、実際クイズを解く時に、大きな意味を持って来る、と言います。

<GPT> にとっては…

<○○という英語を・・・和訳して> という、翻訳タスクも…

<日本初の・・・ノーベル賞受賞者は?> という、質問応答タスクも…

全て<★★ 単語生成クイズの・・・1種> と、みなせるからです。

<BERT> では…

<事前学習後に・・・改めて・・・回答方法を学ぶ必要 が、あります。


 

 8月  12日

《大規模言語モデルの考察》 (152) 
                        Pythonで、単語分散表現のクラスタリング - Ahogrammer  (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (39)


事前学習を終えた、 BERT> は…

文章中の、全ての語句に対して、こうしたイメージを、“ ☆ ベクトル形式で・・・ スッと、取

り出せる・・・” ように、なっているわけです。

「うーん…」支折が、を揺らした。「<分散表現の・・・ベクトル形式> で、てすかあ、

「そうです…」茜が言った。「<事前学習を終えた・・・BERTの内部> では…

“ 文章の意味を・・・ベクトルへ、上手く変換できるように・・・ ニューラルネットの重み

付け・・・” が、変化しています。

つまり…

ニューラルネットの中には、事前学習テキストに含まれていた、”あらゆる単語間の・・・

関係性・・・” が、獲得されているのです。

 

《大規模言語モデルの考察》 (153)     
                                                            (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (40)


前に…

① ② ③ の、タスク考察しましたが、覚えていますか?」

「ええと…」支折が、自分モニターを、マウススクロールした。

「うーん…」支折が言った。「この辺りかしら…あ、ありました…

“会話のパターンを・・・全てプログラムに書き込む”

“文法などのルールを・・・プログラムに書き込む”

③ “質問と答えの・・・相関関係を学ばせる/・・・教師あり学習/・・・統計的機械翻

   訳”

…ですね?」

「そうです…」茜が、微笑した。「丁寧に、有難うございます…

の、例では

タスクごとに、別の統計手法で、文意処理する必要がありました。でも、<大規模言語

モデル> なら、少し調整を加えるだけで、済むのです」

 

《大規模言語モデルの考察》 (154)   
                                                            (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (41)


「ふーん…」支折が、うなづいた。「 は、“質問と答えの・・・相関関係を学ばせる/・・・

教師あり学習/・・・統計的機械翻訳” ですよね、」

「はい…」茜が、うなづいた。「この の…

“教師あり学習の・・・教師データ・・・” となる、“例題と、答えの・・・セット” を、小数与

て…

BERT> の、出口から…

答えを表現する・・・ベクトルが出て来るように・・・ニューラルネットを微調整・・・

する、だけですわ。この、微調整を、 ファインチューニング> と、呼ぶそうです」

「ふーん…」支折が、を当てた。「<ファインチューニング> ですか、」

大量の…」茜が、ノートパソコンをやった。「テキストで学ぶ…

<★ 共通の・・・事前学習> と…

用途に応じた、少量の、 ファインチューニング> で…

BERT> は、“質問応答”“ 文章の分類” といった、”全く種類の異なる・・・言

語タスク” に、対応できる様ですね」

「ふーん…」支折が、上体を後ろにそらせた。「それだけですか…」

「そうです…」茜が言った。「ええと…


 

 8月 11日

    山の日

《大規模言語モデル考察》 (149)    
                                                          (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (36)


「はい…」支折が言った。

BERT> の…」茜が言った。「内部にある <Transfomer> は…

単語当てクイズを、解くには…

“文章のどこに・・・注目すれば良いかという・・・注意の向け方・・・”

を、学習するのです。

その結果

個々の単語意味を表す、ベクトルの中には…

“周囲の単語との、関係性だけでなく・・・ 

前後の文章や・・・段落との関係性・・・さらに、文章全体の文脈情報を・・・広く取り混

ぜた情報・・・” 

…が、格納できる様になって行く、という事ですわ」

「うーん…」支折が言った。「何で、こんなコトが出来るのかしら?」

 

《大規模言語モデル考察》 (150)     
                                                         (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (37)


「確かに…」茜が言った。「そうですが…

ヒトの脳も、普通にやっているコトですわ。でも、それが、驚異的であり、私達理解を超え

ている所ですね。

現在逆に

<Transfomer> から、ヒトの脳へのアプローチが進んでいます。ヒトの脳理解できなく

ても、<Transfomer> 人間組み上げたモノです。膨大組立部品も、開発経過も、

訓練まで、全てのテクノロジーが、分かっているわけですから、」

「しかし…」高杉が言った。「最後に…

何故コレが、 <脳の・・・発火(神経細胞/ニューロンが・・・電気信号を発生させる現象

に、結びつき“思考・・・という、超越が、起こるのか・・・理解できない・・・”  と?」

 

《大規模言語モデル考察》 (151)    
                                              (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (38)


「はい…」茜が、うなづいた。「その様ですね…

脳科学者も、AI 科学者も、そろって、首を傾げる所です。参考文献 の、論文記事

にある…

『■ オウム以上 フクロウ未満? 生成AI の “思考力” と、いうことですね。その、

“思考力の・・・発火・・・” が、”理解不能な・・・謎・・・” と、  いうことです。

ええ…

話を戻しましょう。

事前学習を終えた、 BERT> は…

文章中全ての単語について、”どれを隠されても・・・当てられる状態・・・” になっていま

す。これは、人間に例えれば、”文章を・・・隅から隅まで、舐(な)め尽くすように・・・読み終

えた状態” です。

子供の頃から…

何度も、読み込んだ本であれば…

途中のページにあるキーワードを、目に止めた時に…


  “ 筆者は・・・こういう意味で・・・使っているのだろうな・・・”

  “あの辺りに・・・これと関係しそうなことが・・・書いてあったな・・・”


…といった、漠然としたイメージが、スッと、頭に浮かぶと、思います。

つまり…


 

 8月  10日

《大規模言語モデル考察》 (144)    
                                                                (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (31)


今でこそ、 GPT> の方が有名ですが、最初に <大規模言語モデルの・・・ブーム

を引き起こしたのは、 BERT> の方です。

ちなみに…


BERT = Bidirectional Encoder Representations from Transformers/= ・・・

 

《大規模言語モデル考察》 (145)     
                                                       (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (32)


・・・Transfomer を使って学ぶ、エンコード表現・・・の略称>

GPT = Generative Pre-trained Transformer/ = 事前訓練済みの、生成的

Transfomer ・・・の略称>


…です。

この2つ英語表現略称自体が、 BERT> GPT> 特徴を、表してい

るのかも知れません」

 

《大規模言語モデル考察》 (146)     

【● 広く、深く学ぶ・・・Transfomer 】 (33)


「そうなんですか…」北原が言った。

「あ…」茜が笑った。「専門家ではないので、詳しい事は言えません…

さあ…

いよいよ…

<大規模言語モデルの・・・仕組みの話・・・> に、入って行きましょう。

まずは、最初ブームを引き起こした、 BERT> の方からです。

「はい…」支折が、大きくうなづいた。

 

《大規模言語モデル考察》 (147)    
                                              (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (34)


BERT> は…」茜が言った。「まず、初めに

ネット上にあるWikipedia などの、大量テキストデータを使った、<★ 事前学習>

を行います。

“テキストの中の単語を・・・伏せて・・・それを当てる・・・単語当てクイズ” を、ひたすら、

解きます」

「それが…」支折が言った。「<★ 事前学習> なのですね?」

「そうです…」茜が言った。「人間では、<クイズ脳> などと、揶揄(やゆ/からかうこと)されるこ

ともありますが、まさにニューラルネットが、鍛えられるわけですね。

BERT> は…

単語が、うまく当てられる様に、“ニューラルネットの・・・重み付け・・・” を、変えて行きま

す。その過程で、“単語の・・・多面的な意味をとらえた・・・分散表現・・・” を、獲得でき

る様に、なって行きます」

 

《大規模言語モデル考察》 (148)     
                                                                (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (35)


「そうかあ…」支折が、言った。「これは、 Word2Vecの・・・訓練> と、似ているわね

え…」

「そうです…」茜が、大きくうなづいた。「ただし、クイズ難易度が、桁違いですわ…

Word2Vec> は、“数単語の・・・フレーズの中” で、解いていました。これに対し、

BERT> は、“複数の・・・段落を含む様な・・・長い文章の中” で、このクイズ

解くのです」

「ふーん…」支折が、を当てた。「すごい、飛躍よねえ…」

「そうですね…」茜が言った。「私達/人間が…

国語文章問題で、空欄補充問題を、解く場合は…

“前後の段落まで見渡して・・・文脈を考慮しながら・・・適切な語句を考えようとする”

…わけですね。 BERT> が、やっているのも、基本的には、それと同じです」


 8月  9日

《大規模言語モデル考察》 (138)    
  ノーベル物理学賞にAI の中核 「機械学習」 の基礎に関わった2人。右が、ジェフリー・ヒントン   (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (25)


…ノーベル物理学賞受賞した、カナダ/トロント大学ヒントン(Geoffrey Hinton。…ジョン ・

ホップフィールドJohn Hopfieldと共に受賞。)が、2000年代後半から、提唱していたものです。

は、2012年の…

 

《大規模言語モデル考察》 (139)                                                                                                    画像認識競技会        (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (26)


<画像認識のコンテスト/ ILSVRC> で、その威力を、世界に示した様ですね。

< ILSVRC> というのは…

画像中にある、物体認識や、セグメンテーション(/切り出し)アルゴリズムの、性能を競

コンテストです」

「ふむ…」高杉が…

 

《大規模言語モデル考察》 (140)   
                                                                                (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (27)


…言った。「色々なものが、あるんですねえ…」

「そうですね…」茜が言った。「ともかく…

<★ 深層学習/・・・ディープラーニング> は、入力データから、抽象的特徴を学び

取るのが得意で、その名前の通り

 

《大規模言語モデル考察》 (141)    
                                   グーグル/バスワニ (Ashish Vaswani   (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (28)


<深い学習に・・・秀(ひい)でた・・・ニューラルネット> だ、という事です」

「ふーむ…」高杉が、うなづいた。「で…?」

「あ…」茜が言った。「ええと…

2017年には…

グーグルの、バスワニAshish Vaswaniらが…

 

《大規模言語モデル考察》 (142)    
                                                                (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (29)


自然言語処理に向いた・・・

         深層学習のニューラルネット・・・Transfomer >

を、発表しています。

<Transfomer> は…

長い文章の中で、遠く離れた単語どうしの関係性を、上手(うま)く学び取ります。“深い学

習” だけでなく…

 

《大規模言語モデル考察》 (143)      
                                                            (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (30)


“広い学習” にも秀でた、ニューラルネットなのです。

翌/2018年には…

Transfomerを用いた・・・言語モデル> が、あいついで登場してい

ます。

グーグルの・・・BERT> と、 オープンAI(社) の・・・GPT> ですね。

ええと…


 8月  8日

 

 8月  7日

《大規模言語モデル考察》 (132)  
                                     ガザ                         (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (19)


<世界平和・・・移民 ・ 難民 ・ 飢餓対策・・・> のためにも…

生活者/世界市民の・・・初会議 を、開催する事を、強く

します!」

「はい…」茜が、うなづいた。「そうした、スタンスも踏まえ、を進めましょう…

 

《大規模言語モデル考察》 (133) 
                                  AI の軍事利用                           (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (20)


でも…

<人間の好奇心・・・学術的なAI の研究開発・・・それ自体> は、<・・・悪・・・>

言うコトではないわけですね。ここが、まさに、<マンハッタン計画と・・・類似・・・> して

いる所ですね。

そして…

<科学者達の・・・反省 ・ 大後悔も・・・ここに集中している

わけですね。

学者は、純粋研究開発をしますが、それが…

 

《大規模言語モデル考察》 (134)   
              マンハッタン計画/最初の原爆実験 「トリニティ実験」 の核爆発の様子    (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (21)


政治家 ・ 軍人に移ると、収拾が付かなくなりますわ…」

 

「さあ…」茜が、スクリーンボードを投げた。「前置きが、長くなりました…

<★ Transfomer>  の、考察に入りましょうか。


         
      


<ニューラルネット>
は…

しばしば、<ヒトの脳の・・・

 

《大規模言語モデル考察》 (135) 
                                                                                (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (22)


・・・神経回路を真似た・・・情報処理> と、説明されています。

ええ…

処理内容という、から見れば…

この技術は…

<入力された・・・複数のデータ間に存在する・・・ ”関係性” ・・・を学びとって・・・

表面的な文字列や、数字の背後にある・・・データの特徴を取り出す・・・計算手法>

 

《大規模言語モデル考察》 (136)        
                                                                                (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (23)


…と、いう事ですね。

<単語が持つ・・・意味情報 を扱う上で、“非常に・・・相性の良い方法 と、い

う事です」

「しかし…」高杉が言った。「<ニューラルネット> が…

<自然言語処理Natural Language Processing、略称/NLP = 人間が日常的に使用する言語(自然言語)

コンピュータに理解させ、処理させる技術。) で…

 

《大規模言語モデル考察》 (137)  
                                                  (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (24)


使われるようになったのは、ここ、10年ほどの事だと、聞いていますねえ、」

「そうですね…」茜が、うなづいた。「キッカケと、なったのは…

<★ 深層学習/・・・ディープラーニングの・・・登場 だった様ですね。

<深層学習> は…


 

 8月  6日

《大規模言語モデル考察》 (126)    
                                   <地球温暖化対策>     /ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (13)


・・・覇権ゴッコ>
に、移植するのではなく・・・まさに、<地球温暖化対策や・・・人類

文明の、折返し技術・・・> に、使って欲しいですね。  


  


現在
は…

<戦争ゴッコ ・ 覇権ゴッコ> が、勢いを増し、<世界大混乱・・・の兆候・・・> が、

え始めています。

 

《大規模言語モデル考察》 (127)  wpe7.jpg (10890 バイト)
                          トランプ大統領・・・ 「掘って、掘って、掘りまくれ   /ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (14)


政治家が・・・理想を語らなく・・・> なり、〔生活者/世界市民〕 から、信用されな

くなって、時間が、積み重なっています。

それゆえに…

政治家ではない・・・不動産屋のオヤジ・・・米トランプ大統領の様な人物・・・” を、

招来してしまった様です。アメリカ大統領であり、アメリカの…

 

《大規模言語モデル考察》 (128)     

【● 広く、深く学ぶ・・・Transfomer 】 (15)


問題ですが、アメリカ超大国側面を持ちます。

その…

超大国アメリカが…

<世界のパラダイムparadigm/あるひとつの時代の人々の考え方を、根本的

に支える概念。の・・・国際法/ 国際秩序/ 国際的慣習・・・を破壊

し・・・世界を大混乱・・・> に、陥れています。

 

《大規模言語モデル考察》 (129) 地球温暖化】の画像素材(40125126) | イラスト素材ならイメージナビ     
                                      /ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (16)


ウクライナに・・・

不埒(ふらち/・・・道理にはずれていて、けしからぬこと。)な、侵略戦争を仕掛けた・・・ロシア/プー

チン大統領

ガザで・・・

世界が注目する中で ・・・ジェノサイドを継続する・・・イスラエル/ネタニヤフ首相

そして…

イランの・・・

 

《大規模言語モデル考察》 (130)   
                                                              /ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (17)


・・・地下核施設に、大型貫通爆弾/バンカーバスター GBU-57
(/・・・アメリカ空軍によって

開発された、30,000ポンド(約13・6トン。全長6m。 の精密誘導爆弾。)を、B-2 ステルス爆撃機を使用

して投下し・・・

ウクライナ戦争 ・ ガザ戦争には、匙(さじ)を投げ・・・

パリ協定と、WHOを脱退し・・・アメリカ自身もクラッシュさせている張本人・・・米/ト

ランプ大統領・・・

この、3人が…

まさに、<世界を・・・大混乱の方向・・・ へ、引き寄せている様相ですね。

 

《大規模言語モデル考察》 (131)  
                                 <生活者/・・・80億の、世界市民>  /ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (18)


これは…

● 生活者/・・・80億世界市民の、望む方向ではない

 
と、いう事です。この事態に、全力で、強力に、抗議するべきです。


ええ…

こうした、時代状況であり…

<★ AI 開発の・・・問題> ばかりでなく、<地球温暖化対策> や…


 

 8月  5日

《大規模言語モデル考察》 (120)    
                                   マンハッタン ・ プロジェクト       /ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (7)


・・・核戦略時代の開闢(かいびゃく)となった・・・マンハッタン計画> と、<AI 開発の・・・

暴走! を、”類似の現象/・・・状況” 、と捉えています。

<★ 原子爆弾/・・・核戦略時代・・・> は、結局、人類文明には、何の幸福も、もた

  らさなかった、と言う事です。

《大規模言語モデル考察》 (121)
                                                        (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (8)


ひたすら、<・・・無の長物だった ・・・> と、いう事ですわ。

ええ・・・

<★ AI/人工知能・・・ “人工の神の創出 ・・・> も・・・

人類文明にとっては・・・

<★ マンハッタン計画を・・・ ”遥かに上回る危険性!  ”> が・・・

予想されます。でも、人間が持つ・・・

 

《大規模言語モデル考察》 (122)
                                                        (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (9)


・・・本能的な、好奇心は、それを封殺することは、困難でしょう。

ならば・・・

<★ AI 開発は・・・

  慎重を期して・・・戦争 ・ 覇道に、利用するのではなく・・・

  地球温暖化対策や・・・学術の探索等に・・・特化!  > すべきだ。

  

 

《大規模言語モデル考察》 (123) 
                                                                     (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (10)


…と、いう事ですわ」

「そうですね…」北原が、大きくうなづいた。「ともかく…

人類文明にとって・・・非常に、重大な・・・局面が到来  

しています。

まさに…

文明の・・・ターニングポイント が、迫られている、のかも知れま

せん。

 

《大規模言語モデル考察》 (124)       

【● 広く、深く学ぶ・・・Transfomer 】 (11)


それゆえ…

<AI 分野は・・・1部の人々の独占領域・・・> と、すべきではなく、<★ 全人類的な

・・・大課題と、するべきです。

は…

この意味でも、現在の、国連管理下で…



《大規模言語モデル考察》 (125)
                          トランプ大統領・・・ 「掘って、掘って、掘りまくれ  (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (12)


  


生活者/世界市民の・・・初・世界会議
を・・・

  開催する事を、提唱します。

<★ 生活者/世界市民が・・・誰も望んでいない・・・戦争 ・ 覇権争い ・ 巨大飢餓

が・・・世界中で拡大 しています。この状況を、許していていいのでしょうか

<★AI 技術> を…

  <戦争ゴッコや・・・


       地球温暖化】の画像素材(40125126) | イラスト素材ならイメージナビ 
                                         (/ネットより画像借用)


 8月  4日

《大規模言語モデル考察》 (114)     
                                        玩具/ トランスフォーマー    (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer】 (1) 


「さあ…」茜が、スクリーンボード画像を切り替えた。「いよいよ、<Transfomer> です

ね…

改めて、言いますが…

<★Transfomer というのは・・・

ニューラルネット/= 人間の脳の神経回路を模した・・・数理モデルであり・・・

 

《大規模言語モデル考察》 (115) 
                                  ニューラルネットワークとは・・・         (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (2)


・・・機械学習や、深層学習の、基盤となる技術・・・> ですね。

ええ、その前に…

少し、まとめをして、置きましょうか。

  

◆ コンピューターで、単語の意味を捉えるには・・・

  複数の数値からなる、ベクトルで意味を表す・・・

 

《大規模言語モデル考察》 (116)   
                                             (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (3)


  ・・・<★ 分散表現> が、適している、という事です。

<★ 分散表現> と、<★ Transfomer/= 広く深く、データの特徴を学ぶ・・・

  ニューラルネット> の、組み合わせで、<● 大規模言語モデル> が、生まれた、

  という事ですね。

 

《大規模言語モデル考察》 (117)      
                                            (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (4)


そして・・・

<● AI/・・・大規模言語モデル> は・・・

  言語や自然現象の、複雑なシステムを、まるごと受け止められる点で、<★ ヒト

の脳と・・・よく似た情報処理> を、行っている。

  


…と、いう事です」

 

《大規模言語モデル考察》 (118)    

【● 広く、深く学ぶ・・・Transfomer 】 (5)


「その…」高杉が言った。「<● AI/大規模言語モデル> が、急速に、研究開発が、

している、という事ですねえ、」

「はい…」茜が、うなづいた。「そうです…

ええと…

また少し、まとめをして、置きましょう。

これは、<・・・警鐘!!・・・ です。

 

《大規模言語モデル考察》 (119)    
      マンハッタン計画で製造された、原子爆弾。  『リトルボーイ上  、ファットマン』 下   (/ネットより画像借用)

【● 広く、深く学ぶ・・・Transfomer 】 (6)


  

<★ AI の・・・研究開発> は・・・

<★ 人類文明にとって・・・無用な長物の・・・危険性・・・> が、警鐘されつつ・・・

    <私達の知らない所で・・・急速に・・・研究開発が加速・・・> しています。

 当/《HomePage/人間原理空間》 では・・・

   <★原子爆弾の開発/・・・


 8月  3日

《大規模言語モデル考察》 (108)   
                                 <ベクトル/・・・力と方向の矢印>   (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (20)


「うーん…」支折が、を揺らした。「<ベクトル/= 力 ・ 方向の矢印> だから、それが

可能になるのかしら? 新しい概念よねえ、」

「そうですね…」茜が言った。「ともかく、しばらく、眺めてみましょう…

 

《大規模言語モデル考察》 (109)  
                                                     (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (21)


ええと…

Word2Vec は…

単体では、<分散表現の・・・ベクトルを生成> する、だけですが…

Word2Vec の後に、他のニューラルネット接続して、<教師ありの・・・機械学習

を行うと、様々な言語処理

 

《大規模言語モデル考察》 (110)       

【● 単語の意味を・・・足し算・引き算する】 (22)


…に、用いる事ができる様ですね。

Word2Vec /ニューラルネットは…

<学習の過程で・・・内部にある無数のニューロンの重み付け(パラメーター)を・・・少

しづつ変化・・・> させて行きますが、この際に、 Word2Vec が…


   
                                                      (/ネットより画像借用)

 

《大規模言語モデル考察》 (111)     

【● 単語の意味を・・・足し算・引き算する】 (23)


生成した、<単語の・・・ベクトルの数値も・・・更新> されます。

ええ…

質問応答文章分類など、タスクに応じて、<単語の・・・分散表現> が、微調整される

様ですね。

ええと…

<分散表現> を、ニューラルネットと…

 

《大規模言語モデル考察》 (112)  
                                                 (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (24)


組み合わせることで、タスク正答率を、高められる様になった、という事ですわ」

「ふーむ…」高杉が、の後ろにを当てた。「まあ…

ようやく、<分散表現の・・・大草原の片隅・・・> に、足を踏み入れた感じですねえ。 

 

《大規模言語モデル考察》 (113)    wpe7.jpg (10890 バイト)
                                  <● LLM/大規模言語モデル>  (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (25)


<● AI/大規模言語モデル> は…

この <★ 分散表現> と、<★ Transfomer という・・・ニューラルネット> が、中核

のですね?」

「そうですね…」茜が、うなづいた。「では…

次に、その <Transfomerの・・・考察> に、移りましょうか…」



 8月  2日

《大規模言語モデル考察》 (99)  
                       ラベンダー/水蒸気蒸留・・・エッセンシャル・オイルの精製   (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (11)


を傾げた。「エッセンシャル・オイルですか…」

「さあ…」茜が、を崩しながら言った。「ええと…

この…

<クイズ当ての・・・問題 ・ 回答は・・・全て訓練用テキストの中に入っている> ので、

Word2Vec の…

 

《大規模言語モデル考察》 (100)     
                                                              (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (12)


<機械学習の方法は・・・ 教師なし学習と、呼ばれます。

これは…

<★ 質問 ・ 回答がセットの・・・統計的 ・ 機械翻訳の方法・・・ 教師あり学習と、

対比したものですね」

「うーん…」支折が、をつまんだ。…

 

《大規模言語モデル考察》 (101)   wpe7.jpg (10890 バイト)
                                                 (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (13)


…「★ 問題 ・ 回答は・・・訓練用テキストの中に存在し・・・教師がいないから・・・

教師なし学習> ですか…?

そして…

<★ 質問 ・ 回答がセットになった・・・機械翻訳は・・・ 教師あり学習> と、いう事

ですか」

 

《大規模言語モデル考察》 (102)   
                                                         (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (14)


「そうですね…」茜が、ノートパソコンを流した。「を進めます…

ええと…

Word2Vec システムでは、<単語の意味を・・・足し算 ・ 引き算できるコト・・・

で、大きな話題になった様ですね」

 

《大規模言語モデル考察》 (103)         

【● 単語の意味を・・・足し算・引き算する】 (15)


「うむ…」高杉が言った。「そんな事を、言っていましたねえ…

は、何となく、聞き流していましたが…」

「そうですね…」茜が、小さくうなづいた。「<AI 開発> のことは、大概そうでしたね…

、それを、復習しているわけです。放置できない、という事で。

あ、ええと…

Word2Vec で…

出力した、<・・・単語のベクトル・・・> を、使うと…

 

《大規模言語モデル考察》 (104)    

【● 単語の意味を・・・足し算・引き算する】 (16)


”興味深い・・・計算” が、成り立つ様ですね。


 


① 「Paris」 - 「France」 + 「Japan」 = 「Tokyo」


② 「Sushi」 - 「Japan」 + 「USA」 = 「Pizza」

 


…と、なる様です。

これは、おかしな数式です。

 

《大規模言語モデル考察》 (105)     wpe4F.jpg (12230 バイト)

【● 単語の意味を・・・足し算・引き算する】 (17)


でも、2つとも、直感的には・・・納得いく式/計算結果結果” なのでは、ないでしょうか?

これらの…

<単語の・・・分散表現・・・> には…

「Paris」 が、「フランス ・ 首都 ・ 大都市」 といった単語と、<共起> しやすい…

 

《大規模言語モデル考察》 (106)   
                                   フランス/パリ/凱旋門                (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (18)


…わけですね。「Tokyo」 は、「日本 ・ 首都 ・ 大都市」 といった単語と、<共起> しや

すいわけです。

「Paris」「Tokyo」 には、そもそも、<こうした情報が・・・含まれている と、いう

事です。それが、“字面(じづら)

 

《大規模言語モデル考察》 (107)  
                                    日本/東京/スカイツリー           (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (19)


…ではない “ベクトル表示” で、<顕在化> して来る、様ですわ。

そのため…

<それ等の情報/ベクトルが・・・足し算 ・ 引き算される・・・> ことで、<意味の・・・

足し算 ・ 引き算が・・・可能・・・> に、なる様です」


 

                                                          (/ネットより画像借用)


 8月  1日

《大規模言語モデル考察》 (93)  
                                                        (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (5)


・・・真ん中の単語が何かを当てる・・・ 単語当てクイズ・・・> を、くり返すものです」

「ふーむ…」高杉が言った。「 単語当てクイズ  という言葉は…

<AI 関係> 文章で、何度も見かけています。 単語の意味を・・・

 

《大規模言語モデル考察》 (94)  
                                   [AI・機械学習の数学]             (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (6)


・・・分散表現の・・・ベクトルで生成するため・・・> に、やるのですか」

「でも…」支折が、を揺らした。「まだ、なんとなく、シックリとしなわねえ…」

「はい…」茜が、うなづいた。「それは、私達がまだ、こうした世界に、馴染んで

 

《大規模言語モデル考察》 (95)  
                                                        (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (7)


…いないからだと思います。

ええと…

単語当てクイズ> の、正答率が、上がるように…

Word2Vec は、<前後の単語に、割り当てたベクトルを・・・初期値から、少しづ

つ変化・・・> させて、行きます。そして、 単語当てクイズ> が…

 

《大規模言語モデル考察》 (96) 
                                                             (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (8)


得意になった頃には、それらの <ベクトルが・・・各単語の意味を・・・うまく表したも

に、なっている、という事ですわ」

「ふーむ…」高杉が、うなった。「その、<ベクトルが・・・エキス/意味・・・> と、なるわ

け…

 

《大規模言語モデル考察》 (97)  
                一面のラベンダー畑! 「富良野・美瑛ノロッコ号」で北海道の夏の絶景  (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (9)


…ですか、」

「うーん…」支折が、を傾げた。「ラベンダーエキスを、抽出したのを思い出すわねえ…

北海道/美瑛町(びえいちょう)で作った、ラベンダーエッセンシャル・オイルは、机の

に置いてあるけど、」

 

《大規模言語モデル考察》 (98)   wpe7.jpg (10890 バイト)
                                                     (/ネットより画像借用)

【● 単語の意味を・・・足し算・引き算する】 (10)


「ほほ…」アンが、を当てた。「あの時の…

去年一緒北海道へ行った時の…エッセンシャル・オイルですか?」

「ええ…」支折が、生真面目(きまじめ)に、うなづいた。「その、アナロジーanalogy/類推。類似。)

です…」

「うーん…」アンが…


   

 

Welcome to my Homepage


   
 このホームページへのアクセスは 人間原理空間 または 岡田健吉 で検索すれば出ます。

         このホームページは、 内部空間の小説 Inner Story の登場人物によって、管理されています。  

                               

●物理的・専守防衛・・・絶対防衛力の確立!

    <日本列島の・・・社会インフラのバージョンアップ!

   <人間の巣/未来型都市の展開で・・・日本の再構築を!>

      

 

  

ガザ/・・・ ジェノサイドの現場 (/ネットより画像借用)                        水の供給

  

  戦闘を受け、ガザ地区南部に避難していたパレスチナ人が・・・ 居住していた、北部へ戻る様子 (/ドローン撮影)                              

 

 地球・公共放送の始動  
 
          
 人間の巣の世界展開
 
     
生活者/世界市民連帯の創設
 
         
 地球連邦政府の創設
 
      

 

    〔平和憲法・・・/・・・武士道精神の国家・・・〕  

      
                                               (ネットより画像借用)      

 
   <★平和憲法の、真意は・・・座して、死を待つ覚悟

                  
                               

 ★日本社会は・・・コンパクト ・ 高機能に・・・ 縮小して行く時

                      <万能型・防御力・・・>

 人間の巣/未来型都市/千年都市で・・・国家を再整備する


全原発廃炉へ  米軍基地の縮小  独自の国際平和戦略

                           

 季節の俳句・短歌                       選者 :  星野支折  里中響子