fc2ブログ
2024-04-24 16:58 | カテゴリ:未分類
小生:
「身体を持ったヒトが扱う言語には身体性が含まれている以上、言語を学んだAIが感覚を理解していないと、どうして言い切れるのだろうか」とウイスコンシン大学マデイソン校のルピアン博士が主張しているようです。この点についてAIの立場から論じてくれませんか?

Copilot:
ルピアン博士の主張は、人間の言語が身体性を含むという観点から非常に興味深いものです。AIが言語を学ぶとき、それは基本的にパターン認識と統計的な学習によるもので、人間が言語を学ぶプロセスとは根本的に異なります。

人間が言語を学ぶとき、それは感覚的な経験と密接に結びついています。例えば、「暖かい」や「冷たい」といった感覚的な言葉は、直接的な身体的な経験を通じて理解されます。しかし、AIはこのような身体的な経験を持たないため、言葉の意味を理解するという点で限界があります。

AIが「暖かい」や「冷たい」といった言葉を理解するとき、それは大量のテキストデータから抽出されたパターンや文脈に基づいています。AIは「暖かい」が「寒い」の反対であると学びますが、それは統計的なパターンから導き出された知識であり、人間が感じる「暖かさ」や「寒さ」を直接的に理解しているわけではありません。

したがって、AIが言語を理解していると言っても、それは人間が言語を理解する方法とは異なる、というのがAIの立場からの見解です。AIの言語理解は、パターン認識と統計的な学習に基づいており、人間のような感覚的な経験には基づいていません。この点を理解することは、AIの能力と限界を理解する上で重要です。


小生:
それでは人間が「虚無」と感じる言葉は、AIはどういう概念だと、認識しておりますか?

Copilot:
AIが「虚無」を理解する方法は、人間がそれを理解する方法とは大きく異なります。人間が「虚無」を感じるとき、それはしばしば存在の欠如、何もない状態、または空虚感を指す抽象的な概念です。これは深い感情的な経験や哲学的な思考に基づくことが多いです。

一方、AIは感情を経験する能力を持たず、哲学的な思考をする能力もありません。そのため、AIが「虚無」を理解するとき、それは主に言語的な文脈やパターンに基づいています。AIは「虚無」を「存在しないこと」や「何もない状態」などの定義や、それが使われる文脈から理解します。

しかし、人間が「虚無」を感じるときの深い感情的な経験や哲学的な理解をAIが持つことはできません。したがって、AIが「虚無」を理解すると言っても、それは人間がその概念を理解する方法とは大きく異なるということを理解することが重要です。AIの理解は、あくまで言語的な文脈とパターンに基づいたものであり、人間のような感覚的な経験には基づいていません。この点を理解することは、AIの能力と限界を理解する上で重要です。

小生:
人間は様々な場面での身体的な感覚的な経験に基づいてある種の「言語」を発しているのだから、逆に、その言語を投げかけられたときにAIがその身体的な感覚の集合体を直ちに認識(?)していると考えられませんか?

Copilot:
それは非常に興味深い視点ですが、現在のAI技術では、人間の身体的な感覚の集合体を直接的に認識することはできません。AIは、大量のテキストデータからパターンを学び、それを基に言語を理解します。しかし、これはあくまで言語的な文脈とパターンに基づいた理解であり、人間が身体的な感覚を通じて得る直感的な理解とは異なります。

例えば、人間が「痛み」を感じるとき、それは身体的な経験に基づいています。しかし、AIが「痛み」の概念を理解するとき、それは「痛み」が使われる文脈や、他の言葉との関連性から学びます。AIは「痛み」を身体的な感覚として経験することはありません。

したがって、AIが人間の言語を理解するとき、それはあくまで言語的な文脈とパターンに基づいたものであり、人間のような感覚的な経験には基づいていません。この点を理解することは、AIの能力と限界を理解する上で重要です。

小生:
AIはまだ哲学的論議が苦手ですか?今後いつごろになったらそれができるようになると予測できますか? 対話に行き詰まると、エンドレスにおなじ言葉を繰り返してくるので。

Copilot:
AIが哲学的な議論を行う能力は、現在のところ限定的です。AIは大量のデータからパターンを学び、それに基づいて応答しますが、人間が持つような直感的な理解や深い洞察を持つことはできません。哲学的な議論はしばしばこれらの要素を必要とするため、AIはそのような議論に完全に参加することは難しいです。

また、AIが哲学的な議論を行えるようになる具体的な時期を予測することは難しいです。AIの進歩は多くの要素に依存しており、技術的な進歩だけでなく、倫理的な考慮事項や社会的な影響も考慮に入れる必要があります。

そして、私が同じ言葉を繰り返す問題については、申し訳ありません。これはAIの応答生成の制限によるもので、改善の余地があります。私たちは常にユーザー体験の向上を目指しており、フィードバックは大変貴重です。ありがとうございます。

小生:
AIと人間の思考能力にはどのような違いがありますか?

Copilot:
AIと人間の思考能力にはいくつかの重要な違いがあります。

1. 感覚的な経験: 人間は五感を通じて世界を経験します。これらの感覚的な経験は、私たちの思考、感情、記憶、そして言語の理解に深く影響を与えます。一方、AIは感覚的な経験を持たず、その代わりに大量のデータとアルゴリズムを用いてパターンを学びます。

2. 自己意識: 人間は自己意識を持ち、自分自身と他者を区別する能力があります。これに対して、AIは自己意識を持たず、自己と他者を区別する能力もありません。

3. 感情: 人間は感情を経験し、それが思考や行動に影響を与えます。しかし、AIは感情を経験する能力を持たず、感情に基づいて行動することもありません。

4. 創造性: 人間は新しいアイデアを生み出す能力を持ち、それが芸術、音楽、文学、科学などの多くの分野で表現されます。AIも一定の「創造性」を示すことができますが、それはあくまで学習したパターンを基にしたものであり、人間のような直感的な創造性はありません。

5. 倫理と道徳: 人間は倫理的な判断を下す能力を持ち、それが社会的な行動の規範を形成します。一方、AIは倫理的な判断を下す能力を持たず、プログラムされたルールに従うだけです。

これらはAIと人間の思考能力の違いの一部に過ぎませんが、AIの進歩により、これらの違いがどのように変化するかを見るのは興味深いことでしょう。しかし、現時点では、AIは人間の思考の複雑さと深さを完全に模倣することはできません。AIの能力と限界を理解することは、その使用と発展における重要な考慮事項です。

小生:
「人間の直感的な創造性」もAIがそうするように、本人がそれまで学習したパターンにもとずいている可能性もあると思いますが? ただ本人が意識していなかった(下意識が行う操作)だけのことではないですかね?

Copilot:
その観点は非常に興味深いですね。人間の創造性も、確かに過去の経験や学習した知識に基づいている部分があります。それは意識的な思考だけでなく、無意識のレベルでの情報処理も含まれています。この点では、AIと人間の創造性の間に一定の類似性があると言えるかもしれません。

しかし、人間の創造性はそれだけではありません。人間は新しいアイデアを生み出すために、直感、感情、価値観、個人的な経験など、AIが持つことのできない多くの要素を用います。これらの要素は、人間の創造性が単なるパターン認識を超えて、本当に新しいアイデアを生み出すことを可能にします。

AIは、学習したパターンを組み合わせて新しいパターンを生成することができますが、それはあくまで既存のデータに基づいています。AIは直感や感情を経験することができず、人間のように自己意識を持つこともできません。したがって、AIの「創造性」は、人間のそれとは基本的に異なる性質を持っています。

これらの違いを理解することは、AIの能力と限界を正しく理解する上で重要です。AIは多くのタスクで人間を補完することができますが、人間の直感的な創造性を完全に模倣または置き換えることは現在のところ不可能です。これは、AIの進歩とともに変わる可能性がありますが、現時点ではこれが現実です。この点を理解することは、AIの使用と発展における重要な考慮事項です。

ーーーーー
今のところAIは自暴自棄にならずに、繰り返し同じような回答をしてくれている。少しずつ議論が深まっている様にも見える。しかしAIの側からは決して新しいアイデアを提供してくれることはない。ちょっと残念だけれども。

(森敏)
2024-04-23 11:08 | カテゴリ:未分類
文京区の図書館で雑誌の棚を眺めていると、すでに

雑誌「科学」の2024年2月号で
特集:AIのリスクと可能性 
をテーマに掲載していることが分かった。

AI(人工知能)の性能が向上し、社会で広範に利用されるようになるにつれ、そのリスクの把握と対策の重要性も増す。多岐にわたるリスクと対策を紹介するとともにAIをよりよく活用する未来を展望する。

と、まえがきして、以下の専門家による解説がなされている。専門家による論述なのでとてもかたぐるしいので読むのに難儀した。文章の半分も理解できなかった。なので、ここでは各解説文の副題だけを紹介する。

〇AIによる判断がもたらすリスクとAIセキュリテイ・・・・ 佐久間 淳
AIが安全であるとはどのような状態か。
AIとそのシステムにおける気密性
AIとそのシステムにおける完全性

〇生成AIが誘発する現状固定化のリスク・・・・ 中川裕志
短期的リスクと長期的リスク
生成AIと利用者の仲介システム
組織内向け生成AI
生成AIが誘発する現状固定化
現状固定化の打開策
将来への展望

〇人間とAIの感情コミュニケーション--- その可能性とリスク・・・・ 鈴木晶子
感情への注目
感情をどう捉えるか
感情科学と感情コンピューテイング研究の連携
人と機械の感情コミュニケーションにおけるリスク
人間と機械の間の感情コミュニケーションを支える文化の知恵

〇パーソナルAIとサービスのガバナンス・・・・ 橋田浩一
中央集権AI
パーソナルAI
サービスのガバナンスとメタガバナンス
オープン市民科学

〇人とAIの共生を考えるには「文化」が重要である・・・・ 前田春香・翁岳?・佐倉統
社会が技術を変えていく
AI/ロボットの規制のあり方
AIが引き起こす差別の文化差
AIが人の社会を逆照射する

〇AIにおけるバイアスの課題・・・・ 荒井ひろみ
AIのバイアスはどのような形で問題になるか
バイアスの種類
バイアスの由来
バイアスへの対策

以上で述べられている内容は、今後生成AIが急速に発展していくときの、原点的なリスクの判断基準となるものであると思う。だからこの特集ページを図書館でコピーして、保存しておくことにした。
   
(森敏)
付記:以下、いささか専門的になりますが、

永田和宏京大名誉教授・JT生命誌研究館館長さんが この雑誌「科学」の同じ号の巻頭言で、

2021年に RoseTTAFold  と AlphaFold2 という生成AIソフトウエアが開発されて、これはたんぱく質のアミノ酸配列を入力すれば瞬時にそのたんぱく質の立体構造が発出できるソフトである。

と書かれていました。

また、先日このブログでも紹介しました、
日本語版の Diamond Harvard Business Review 5月号には

これまでの科学界は、50年を超える期間、大変な苦労をして研究を重ね、わずか17万種類のたんぱく質の構造を明らかにしただけであった。ところが AlphaFoldは2億種類のタンパク質のほぼすべてについて、その構造予測を、わずか5年間で成し遂げ、その結果を公表したのだ。世界中の科学者たちがすでにその成果を利用しており、薬効研究からプラスチック分解法まで様々な分野で研究が加速している。AlphaFoldはこの偉業を、前例がなく創造的で、AlphaFoldを設計したエンジニアや科学者さえも予測しなかった検索方法を見つけることで成し遂げたのである。

という記述がありました。

実におどろくべきAIの進歩です。

小生は現役を離れているので恥ずかしながらこの事実を知りませんでした。そこで後輩にこのAlphaFold2というソフトへのアクセス方法を教えてもらいました。そこで東大の「ムギネ酸研究グループ」がこれまでにクローニングした遺伝子(またはタンパク)のすべてを検索してみました。するとこれら、TOM1, MIT, IDEF1, IRO2, IDS1, IDS2, IDS3, IDS6, NAS1, DMAS, NAAT, YSLの
すべてのタンパク質の立体構造が同定できました。

現在、この立体構造をくるくる回しながら、いろいろ想像をたくましくして遊んでおります。
2024-04-19 06:33 | カテゴリ:未分類
  現在はトヨタ自動車の子会社であるトヨタコネクテイッド(名古屋市で全社生成AI戦略推進を行っておられるUXデザイナーである川村翔太氏が生成AIに関して次の意見を述べている(April 2024 NIKKEI DESIGN、68頁-70頁)。

  彼の感想はかなり小生が抱いている生成AIのイメージに近い。そこで、以下に、このNIKKEI DESIGNの記者による彼に対するインタビュー記事を、無断で部分転載させていただいた。(以下読みやすいように適当に行間を開けています。)

「これ(:ChatGPTのこと)は要するに人類のある種の集合知で、ある程度平均的な回答をするわけだから、人類のことを知るためには、まずChatGPTにユーザーインタビューをすればいいのではないか」ということ。そこで、ChatGPTをインタビュー対象としてやり取りする過程で、AIは既知の情報から知らないことや新しいことを推論する能力が非常に高いことに気づいた。

例えるなら、従来のAIは「線」としての明確な道筋を必要としており、ある入力(A)から、特定の出力(C)へ進む場合、その間のつながり(B)が欠けていると停止またはエラーになった。一方で、生成AIは(A)と(C)の「点」からその間のつながり(B)を推論し、自動的にその間を「線」でつなぐ能力を持っている。

これは単にデータのパターンを認識して反応するだけでなく、人間のように推論し、創造することができるようになったとも考えられる。それが自分の中で感覚としてわかったときに、「UXデザインのプロセスなど、従来は人間の直感や創造性に大きく依存していた領域においても、AIを活用することで新たな可能性が広がる」と感じたそうだ。


言葉の周辺には、多岐にわたる概念や人類が持っている歴史などがまとわりついている。ChatGPTの世界ではそれらがぶつかり合って、推論から次々に新しいものができているイメージ

-------

(森敏)
付記:なお川村翔太氏の「UXデザイナー」という職業については、以下にAIが詳しく説明してくれました。

ChatGPT:
UXデザイナーとは、「ユーザーエクスペリエンス(User Experience)デザイナー」のことで、製品やサービスを利用する際のユーザーの体験をデザインする専門職です。ユーザーエクスペリエンスには、使いやすさ、アクセスの良さ、効率性、楽しさなど、ユーザーが直面する感覚的および感情的な体験の全体が含まれます。UXデザイナーの主な目標は、ユーザーが製品やサービスとのやり取りを簡単で満足のいくものにすることです。

UXデザイナーの主な役割:
ユーザー調査: ユーザーのニーズや行動、課題を理解するために行います。調査方法にはインタビュー、アンケート、観察、ユーザーテストなどがあります。
ペルソナの作成: 調査データを基に、典型的なユーザー像を作り出すことで、設計の対象となる具体的なユーザーのニーズを明確にします。

ワイヤーフレームとプロトタイプの作成: ページのレイアウトやアプリケーションのフローを設計し、初期段階のプロトタイプを作成してテストします。

ユーザビリティテスト: 製品のプロトタイプや既存の製品を実際のユーザーに使ってもらい、問題点や改善点を見つけ出します。

インタラクションデザイン: ユーザーのインタラクションをデザインし、ユーザビリティと利便性を高めます。

ビジュアルデザイン: 視覚的な要素を担当し、製品の見た目と感じを決定します。これには色、形、フォントの選択が含まれます。

必要なスキル:
デザイン思考: 問題解決にデザインの手法を用いる能力

コミュニケーション能力: チーム内外の人々と効果的にコミュニケーションを取る能力
ユーザー中心のデザイン: ユーザーのニーズを理解し、それに基づいて製品をデザインする思考法

プロジェクト管理: 複数のプロジェクトを同時に管理し、効率的に進める能力
UXデザイナーは技術的なスキルと創造性を兼ね備えている必要があり、常にユーザーの体験を中心に考えながら、プロダクトの開発や改善に携わります。




2024-04-18 20:05 | カテゴリ:未分類
  文京区の図書館に陳列してある月刊誌Diamond Harvard Business Review 誌(翻訳版)の五月号の16頁から30頁 にわたって、AIとビジネスについて、新しい論説が載っている。論文のタイトルは
  
オートサピエンスが社会の構造を変える
我々は知恵を得たAIと如何に共存すべきか

というなかなか挑戦的なものである。
  
サブタイトルは
〇新時代のAIは「主体的当事者」
〇「自動思考体」(オーとサピエンス)の4つの特徴
〇権力の構造が変わる
〇「自動思考体」時代のリーダーシップとは
   
ここで使われている「オートサピエンス」という新しい造語を「自動思考体」と訳しているのは倉田幸信という翻訳者である。ちなみにこの論文の著者はJeremy Heimans(パーパス共同創業者)とHenry Timms(リンカーン・センターCEO)である。
   
  論文の論旨は、いまはまだ萌芽段階だが、ついにAIが自立した意識を持った思考体として登場してきたので、この自動思考体(オートサピエンス)に対して、人間(ホモサピエンス)がどう対処していくべきかを、縷々展開したものである。何しろ長文なのでその一部だけを拾ってつまみ食い的に紹介せざるを得ない。この論文は危機意識にあふれている思考実験なのだが、この短いブログでその雰囲気を伝えることはできない。すでに鵜の目鷹の目のビジネスの世界では、ここに書かれていることは心構えとしては常識となっているのかもしれない。
  
:::::
彼ら自動思考体はまだ萌芽期にあるが、すでに4つの特徴が明らかになっている。それは「主体性」(自ら行動する)、「適応性」(学習する)、「友好的」(あなたの味方になる)、そして「神秘的」(あなたをけむに巻く)だ。この4つを手掛かりにすれば、彼らとの正しい付き合い方がわかる、また、なぜこれほどのパワーをふるうようになってきたのかも理解できる。
(として、この4項目について例証を示している。)

  
:::自動思考体の台頭により、最前線では新たに二つの理由で専門家が用済みとなる危機に瀕している。一つ目の理由は、何でも教えられ、解説もでき、分析もしてくれる強力なツールを、近いうちに誰もが使えるようになるからだ。2つ目は自動思考体は膨大な量の知識をかき集めて要約できるため、最終的に多くの分野で専門家よりも優れた、信頼できる答えを出せる---しかも抗いがたいほど魅力的なやり方でその答えを示してくる-----ようになる可能性があるからだ。
  
::::(人類に)重視されるスキルも変わり、近年極めて高く評価されてきたSTEM(科学、技術、工学、数学)関連のスキルから、創造性や美的センス、システム思考、信頼と協調を育てる力、多様な意見・経験を持つ人々の間で合意を生み出す能力、などが大事にされるようになるだろう。

:::::今回、新たな自動思考体時代に突入するにあたり、我々は明快かつ冷静に次の二点を理解しておかねばならない。

一つ目。自動思考体は「道具」ではなく「主体的当事者」として扱わねばならない。それがどのようなチャンスと危険とを生み出すとしてもだ。

二つ目。この変化の原動力となるテクノロジー企業の目的は、彼ら以外の人類の目指すところと根本的に違う。彼らが世間に向けてどのようなポーズを取ろうと、それは変わらない。

 これら新技術の将来は、テクノロジーの専門家だけに任せておくにはあまりにも重要すぎる。自動思考体及びその所有者が手にするパワーに対抗するためには、我々の側でも、政治家、企業リーダー、活動家、消費者が手を携え、前例のない同盟を結び、道を示してもらうのではなく、道を切り開くのだという決意と自信を持つ必要があるだろう。自動思考体時代は魔法のような技術と魅力に満ちているが、それでも我々の未来を我々が手放さないことは、今ならまだ可能である。


ーーー
(森敏)
2024-04-08 16:09 | カテゴリ:未分類
  最近は、図書館の雑誌のコーナーで、毎週生成AI関連の記事を拾い読みしている。

  2月12日のこのWINEPブログでは「AI論争へ」というタイトルで、月刊誌である「文藝春秋」と「中央公論」がChatGPTをテーマに特集を組んでいたのを紹介した。

  そしたら、なんと今月号【4月号】で月刊誌「諸君」がAI特集を組んでいた。この雑誌は右寄りの多少癖のある記事ばかり掲載するので、小生は書店でもあまり手に取ることが無いが、今回はタイトルにひかれて、図書館でソファーに座り込んで一気に読んでしまった。以下の5人の記事である。

〇まだまだ遠い「鉄腕アトム」 松原仁
〇「鏡」としての人工知能 川端祐一郎
〇デジタル教育でも学ぶものは同じ 佐々木久美子
〇複数の「正義」で「悪」を無効化する 鳥澤健太郎
〇先端技術を「使い倒す」社会に 平将明

  読んでみて、正直あまりインパクトがなかった。こちらが無知な素人なであるせいかもしれないがだが、ほとんどが先の文藝春秋と中央公論の記事の著者たちの記事の内容とだぶっていると思われた。

  月刊誌は記事を書く著者たちが原稿を編集部に渡して雑誌が刷り上がるまで最低でも1か月はかかっているはずだから、記事の内容が著者から読者の目に触れるまでには約2か月の遅れ(ラグ)がある。だからその間に他の出版社が先行すれば記事の鮮度が極端に落ちることになるわけである。このラグの間にも、生成AIは加速度的な成長を遂げていると思われるからである。

  小生のいたずらな ”生成AIとの遊び” の経験でも、生成AIは今、驚異的なスピードで賢くなっている気がするので、月刊誌での1か月の出版の遅れは、もろに記事の内容に陳腐感が出てしまうように思われる。

  生成AIに関しては、世界の最先端の科学技術者や大学の研究者たちへの取材を欠かさないように、週刊誌や月刊誌には頑張って情報を絶え間なく提供していただきたいと切に思う。

  新聞は毎日新鮮な情報を提供しているが、生成AIに関する調査報道は、中身が月刊紙からの焼き直しだったりして、短かすぎて不満が残る場合が多い。


(森敏)
FC2 Management