新しいAIは人類に上手な嘘つきになる方法を教え、決して人間に取って代わることはありません

科学論

多くの人が LLM AI のこの限界を理解し始めており、この問題に対する本当の解決策はないことに気づき始めています。なぜなら、これは人工コンピューター ベースの「知能」に固有の限界だからです。

「人工」という言葉の同義語は、「偽物」または「本物ではない」です。この種のコンピューター言語を AI と呼ぶのではなく、FI (Fake Intelligence) と呼ぶ方が正確でしょう。

The New AI Teaches Humanity How to be Better Liars and Will Never Replace Humans - Vaccine Impact
It has been a year and a half now since the first Large Language Model (LLM) AI app was introduced to the public in November of 2022, with the release of Microsoft's ChatGPT, developed by OpenAI. Google, Elon Musk, and many others have also now developed or are in the process of developing their own versions of these AI programs, but after 18 months now, the #1 problem for these LLM AI programs remains the fact that they still lie and make stuff up when asked questions too difficult for them to ...

新しいAIは人類に上手な嘘つきになる方法を教え、決して人間に取って代わることはありません

ブライアン・シルハヴィ
、健康影響ニュース編集者

2022 年 11 月に、OpenAI が開発した Microsoft の ChatGPT のリリースにより、最初の大規模言語モデル (LLM) AI アプリが一般公開されてから 1 年半が経過しました。

Google、イーロン・マスク、その他多くの企業も現在、これらの AI プログラムの独自バージョンを開発中、または開発中ですが、18 か月経った今でも、これらの LLM AI プログラムの最大の問題は、依然として嘘をつき、答えられないほど難しい質問をされた場合は、でっち上げます。

これはテクノロジーの世界では「幻覚」と呼ばれており、マイクロソフトが 2022 年にこのクラスの AI の最初のバージョンを導入したとき、すぐに正確な結果が得られるだろうと大きな期待が寄せられていましたが、「幻覚」を続けているため、その精度は依然として幻に満ちています。 」

本日、2024 年 5 月 6 日に公開されたばかりのレポートは次のとおりです。

大規模言語モデル (LLM) の採用は、2024 年にさらなるレベルに達します。 Valuates のレポートによると、LLM 市場は 2022 年に 105 億米ドルと評価され、驚異的な年間平均成長率 (CAGR) により、2029 年までに 408 億米ドルに達すると予想されています。 21.4%。

言語に非常にネイティブで、詩を書き、言語を翻訳し、魅惑的な詳細で質問に答えることができる機械を想像してみてください。 LLM はまさにそれを行っており、コミュニケーション、教育、創造的表現などの分野を急速に変革しています。しかし、その輝きの中に隠れた脆弱性、幻覚のささやきが横たわっています。

これらの AI モデルは、事実をでっち上げたり、物語を捏造したり、単に物事を間違ったりすることがあります。

これらの幻覚は、詩の中にちりばめられたフィクション、誤訳されたフレーズなど、一見すると無害に見えるかもしれません。しかし、その結果は現実のものとなる可能性があり、誤解を招く情報、偏った出力、さらにはテクノロジーへの信頼が損なわれることさえあります。

したがって、LLM が空想的なでっち上げではなく、権力に対して真実を語れるようにするには、どうすればこれらの幻覚を検出して軽減できるのかを問うことが重要になります。 (記事全文)

多くの人が LLM AI のこの限界を理解し始めており、この問題に対する本当の解決策はないことに気づき始めています。なぜなら、これは人工コンピューター ベースの「知能」に固有の限界だからです。

「人工」という言葉の同義語は、「偽物」または「本物ではない」です。この種のコンピューター言語を AI と呼ぶのではなく、FI (Fake Intelligence) と呼ぶ方が正確でしょう。

Tech Crunch に寄稿しているKyle Wiggers 氏は、数日前に LLM AI の幻覚を治すための最近の試みのいくつかが失敗したことを報告しました。

RAG が生成 AI の幻覚問題を解決しない理由

幻覚 (基本的に、生成 AI モデルが教える嘘) は、テクノロジーを業務に統合しようとしている企業にとって大きな問題です。

モデルには実際の知能はなく、プライベート スキーマに従って単語、画像、音声、音楽、その他のデータを単に予測しているだけであるため、場合によっては間違うことがあります。大きな過ち。ウォール・ストリート・ジャーナルの最近の記事で、ある情報筋は、マイクロソフトの生成型 AI が会議出席者をでっち上げ、電話会議では実際には議論されなかった議題についての電話会議であるとほのめかした例を詳しく語っている。

少し前に書いたように、幻覚は今日の変圧器ベースのモデル アーキテクチャでは解決できない問題である可能性があります。 (記事全文)

Tech Crunchにも寄稿している Devin Coldewey 氏は、先月、AI LLM に内在する幻覚という大きな問題について説明する優れた記事を発表しました。

グレート・プリテンダー

AI は答えを知りませんし、注意する方法も学習していません。

今日の AI 構造が伝えることを信じないのには十分な理由があります。そして、それは知性や人間性の基本的な性質、言語表現のウィトゲンシュタインの概念、さらにはデータセット内の偽情報とは何の関係もありません。

重要なのは、これらのシステムが正しいものと正しく見えるものを区別しないということだけです。

AI がこれらのものを多かれ少なかれ交換可能であるとみなしていることを理解すると、すべてがより理解できるようになります。

さて、私は、あらゆる形態のメディアや会話を通じて継続的に起こっている、この件についての魅力的で幅広い議論を短絡するつもりはありません。哲学者、言語学者、エンジニア、ハッカー、バーテンダー、消防士に至るまで、あらゆる人が「知性」と「言語」とは実際何なのか、そして ChatGPT のようなものがそれらを備えているのかどうかについて質問し、議論しています。

これは素晴らしいです!そして、この分野で最も賢い人々が太陽の下での時間を楽しんでいる一方で、比較対象のベイビーたちの口からは新鮮な新しい視点がもたらされているので、私はすでに多くのことを学びました。

しかし同時に、ビールやコーヒーを飲みながら、誰かが「GPT のことはどうなっているの? AI の賢さはちょっと怖いですよね?」と尋ねると、内容を整理するのが大変です。アリストテレス、機械仕掛けのトルコ人、パーセプトロン、あるいは「必要なのは注意力だけ」など、どこから始めますか?

これらのチャットの 1 つで、私は、これらのシステムが非常に優れていると同時にまったく信頼できない理由を人々が理解するのに役立つシンプルなアプローチを思いつきました。一方で、一部の分野での有用性や周囲で行われている素晴らしい会話をまったく減点するものではありません。彼ら。ベクトルや行列については聞きたくないが、好奇心旺盛で懐疑的な人々とこの件について話すときに、この視点が役立つと思われる場合に備えて、この考え方を共有したいと思いました。

理解すべきことは 3 つだけであり、自然な結論につながります。

  1. これらのモデルは、テキストの膨大なデータセット内の単語や文などの間の関係を観察させ、これらの何百万もの単語や概念がどのように関連付けられ、相関しているかを示す独自の内部統計マップを構築することによって作成されます。これは名詞であり、これは動詞であり、これはレシピであり、これは修辞法であるとは誰も言っていません。しかし、これらは使用パターンに自然に現れるものです。
  2. 過去 10 年間にわたって Google や Apple などのよく知られたソフトウェア企業が AI と呼んできたのとは対照的に、これらのモデルは質問に答える方法を特に教えられていません。 これらは 基本的に、API につながる空白を含む Mad Lib です。すべての質問が説明されるか、一般的な応答が生成されます。大規模な言語モデルでは、質問は他の質問と同様に単なる一連の単語になります。
  3. これらのモデルは、応答に「自信」という基本的な表現特性を持っています。猫認識 AI の簡単な例では、それが猫ではないことを完全に確信することを意味する 0 から、それが猫であることを完全に確信することを意味する 100 まで変化します。信頼度が 85 または 90 のいずれかであれば、好みの応答指標を生成するものであれば、「はい、猫です」と言うように伝えることができます。

モデルがどのように機能するかについて私たちが知っていることを考えると、ここで重要な疑問が生じます。それは何を確信している のでしょうか?猫や質問が何であるかはわかりません。トレーニング セット内のデータ ノード間に統計的関係が見つかるだけです。わずかな調整により、猫検出器はその写真が牛、空、静物画を示していると同等に確信するでしょう。モデルは、トレーニングされたデータの内容を実際に評価する方法がないため、自身の「知識」に自信を持つことができません。

AI は、 ユーザーにとってその答えが正しいとどの程度確信できるかを表現しています。

これは猫検出器にも当てはまり、GPT-4 にも当てはまります。違いは出力の長さと複雑さの問題です。 AI は正解と不正解を区別できません。できるのは 、一連の単語が正解として受け入れられる可能性を予測することだけです 。だからこそ、この組織はあらゆるテーマの権威ではなく、世界で最も包括的な情報に精通したデタラメな存在だと考えられるのです。それは、自分がでたらめであることさえ知りません。 統計的に正しい答えに似た応答を生成するように訓練されており 、その類似性を改善するためには何でも言います 。

AI は質問を理解できないため、質問に対する答えがわかりません。それは質問が何であるかを知りません。

それは何も「知らない」のです!統計分析から推定すると、その一連の単語が前の一連の単語に続く可能性が最も高いため、質問の後に答えが続きます。それらの言葉が現実の場所、人、場所などを指しているかどうかは重要ではなく、ただそれらが 現実のものに似ているというだけです 。

AI がモネではないモネのような絵画を生み出すことができる理由は同じです。重要なのは、人々がその作品をモネのものだと認識させるすべての特徴を AI が備えているということだけです。 (記事全文)

「AI」は 2023 年の新しい流行語であり、投資家が文字通りこの「新しい」テクノロジーに数十億ドルを投じたため、コンピューター コードに関連するあらゆるものは「AI」と呼ばれるようになりました。

しかし、実際に調べてみると、それほど新しいものではありません。

話し言葉に反応して応答を返す、Apple の女性の声「Siri」や Amazon.com の女性の声「Alexa」は多くの人が知っているでしょう。それが「AI」であり、10年以上前から存在しています。

新しい LLM アプリケーションのような「生成 AI」の「新しい」点は、応答を計算する能力とエネルギーが大幅に拡張され、コンピューターがテキストを迅速に生成しながら、あたかもユーザーに話しかけているかのように見えることです。

しかし、これらの LLM は実際には何も新しいものを生み出しません。彼らは、供給された既存のデータを取得し、そのデータを非常に高速で迅速に計算できるようになりました。そのため、Siri や Alexa などのプログラムを動かしている古いテクノロジーが、大人のように話す方法をまだ学んでいない赤ちゃんのように見えます。

ただし、トレーニングに使用されるデータの量と精度には依然として制限があります。データを操作することで新しい言語構造を「作成」できるかもしれませんが、データ自体を作成することはできません。

別の見方としては、核となるデータを正確に表現していないため、現実世界でそれが人間をより嘘つきにしていることを観察することもできます。

最近、新しい Google Phone のコマーシャルを見たときに、この強化された嘘をつく能力に本当に衝撃を受けました。

Google Pixel 8: AI in Your Hands
Google Pixel 8 puts AI in your hands.Turn a grey sky into a sunset or move your friends to the center of the shot with Magic Editor¹, erase a photobomber wit...

ここでGoogleは、人々を騙し、Google携帯が「AI」を使って撮影した写真などの実際のデータについて嘘をつく方法を明らかに教えている。

人々の嘘や欺きは売れるが、真実は売れないことがほとんどであり、Google の最新携帯電話のこのようなコマーシャルを公衆が見ると、私たちの社会がそうしているように、これは本当に素晴らしいものだという反応が大半を占めるはずだ。今では、ほとんどの状況で嘘をついたり人を騙したりしても大丈夫だと信じるように私たちに条件づけられています。

今日のビッグテックの世界では、「データ」が新しい通貨であり、「データ主義」が新しい宗教です。

このすべてがどこへ向かうのか、少なくともテクノクラートがどこへ行こうとしているのかを鋭敏に観察しているゼカリア・リンチが私が昨年公開した記事をまだ読んでいない場合は、これを読んで勉強してください。

「データ主義」はAIとトランスヒューマニズムの新宗教:データを所有し、コントロールする人々が人生をコントロールする

“Dataism” is the New Religion of AI and Transhumanism: Those Who Own and Control the Data Control Life
Yuval Noah Harari is an Israeli professor in the Department of History at the Hebrew University of Jerusalem. He is one of the leading technocrats today who promotes Artificial Intelligence (AI) and makes techno-prophecies about the future, claiming that AI is advancing so rapidly, that we are the last generation of homo sapiens, because transhumans will soon replace us. Harari makes it clear that "dataism" is the new religion that fuels AI, and he claims: "We are probably one of the last genera...

最近の記事で述べたように、これらの LLM モデルをトレーニングしている人々は、「データが不足している」ためにパニックになり始めています。

これは、新しい LLM AI モデルにもう 1 つの重大な欠陥をもたらします。既存のデータから生成されるものはすべて、誰かによって作成され、インターネット上にカタログ化されたデータです。つまり、この AI によって生成されたものは、それが正確であるかどうかに関係なく、盗難です!

このテクノロジーは急速に進歩しているため、法的影響についてはまだ完全には訴訟されていませんが、私は泥棒になって他人のものを盗む気はないので、テキストやグラフィックの生成に AI を使用しないと昨年初めに決めました。仕事。

私が今日記事を書くときは、何十年もそうしてきたように、記事内で使用するすべてのものの元の出典を引用し、クレジットされるべきところにはクレジットを記載するよう最善を尽くしています。

LLM AI は通常、これを行いません。 AIには魂がなく、善悪の概念もありません。それは単にスクリプト、つまりアルゴリズムと呼ばれる人間によってプログラムされたコンピュータースクリプトに従っているだけです。

現在、コンピュータにデータを入力できる方法は、テキスト、マイクによる音声、カメラによる画像や動画など限られています。

この制限だけでも、コンピューターや AI プログラムが人間に取って代わることは決してないことが保証されます。人間は、これら 3 つの方法以外の方法でもデータを入力でき、現時点ではまだ使用できない嗅覚や味覚などの感覚も含めることができます。デジタルデータに変換されます。

しかし、人間が持つ最大のデータ収集能力は、非物理的なもの、つまり「形而上学的」なものです。

何百年にもわたるダーウィンの生物進化理論は、ほとんどの西洋人に脳が意識の中心であることを教えてきましたが、古代人は何千年もの間、心臓が意識の中心であると常に信じてきました。

これは聖書の古代文書やその他の文書の見解です。見る:

脳の神話: 知性や思考は脳ではなくハートから生まれる

The Brain Myth: Your Intellect and Thoughts Originate in Your Heart, Not Your Brain - Created4Health
Those of us who have been educated in Western Culture today have been taught to believe that the center of a person's consciousness and thoughts is our brain. Like a computer that contains a microprocessor that allows the computer to accomplish all of its various tasks, the idea that a human being also works like a computer with a brain that functions like a microprocessor, is something that almost all people raised in Western Culture assume is a fact. But it is not a fact. It is a belief system...

そして、「現代科学」にはこの信念を反証するものは何もありません。

私が昨年このテーマについて書いたように、どちらかといえば、  私たちの人生における心の中心的な位置を裏付ける科学的証拠があります。

この証拠は、心臓移植を受け、新しい心臓を移植された人がドナーのことを全く知らなかったにもかかわらず、心臓を提供した人が死ぬ前に経験したことを考えたり思い出したりする人々の話から来ています。

他人の脳の移植を受けた人は誰もいません。

Medical Hypotheses に 掲載された2020 年の 研究では 、実際にこの問題に取り組んでいます。

抽象的な

心臓移植後の性格の変化は数十年にわたって報告されており、その中にはレシピエントがドナーの性格特性を獲得したという報告も含まれています。この記事では、性格変化の 4 つのカテゴリーについて説明します: (1) 好みの変化、(2) 感情/気質の変化、(3) アイデンティティの変更、および (4) ドナーの人生の記憶。心臓移植後のレシピエントによるドナーの性格特性の獲得は、細胞記憶の伝達を介して起こると仮説が立てられており、4 種類の細胞記憶が提示されています:(1)エピジェネティック記憶、(2)DNA 記憶、(3)RNA 記憶、 (4) タンパク質の記憶。心臓内の神経学的記憶やエネルギー的記憶を介した記憶の伝達など、他の可能性についても議論されています。現在の死の定義を再検討することの重要性、記憶の移転が提供された心臓の統合にどのような影響を与える可能性があるかについての研究、他の臓器の移植によって記憶が移転できるかどうかの決定、および調査の重要性など、心臓移植の将来への影響が検討されています。心臓移植によってどのような種類の情報を転送できるか。さらに調査することをお勧めします。 (ソース。)

関連項目:

臓器移植レシピエントの記憶転移

Memory transference in organ transplant recipients - Namah Journal

ドナーの特徴を引き継いだ10人の臓器移植者

10 Organ Recipients Who Took on the Traits of Their Donors - Listverse
Organ donations and transplants have saved countless lives. However, some people claim to have received more than just the working organ. There is an

抜粋:

クレア・シルビアには奇妙な渇望と夢がある – ニューイングランド

 47歳のクレア・シルビアさんが受けた心臓と肺の移植は、彼女の命を救っただけでなく 、彼女をニューイングランドで初めて移植手術を受けた人にした。彼女はまた、重要な臓器に加えて、あたかもドナーの記憶が心臓と肺に閉じ込められているかのように、ドナーの味の一部を受け取り、その結果、今彼女の体内に流れ込んでいると確信している。

彼女は記者に対し、手術後最初に何をしたいかと尋ねられたとき、「今、ビールが飲みたくてたまらない」と答えたと語った。これまでビールを少しも楽しんだことがなかったクレアにとって、これは奇妙でした。その後数日間、彼女はまた、ピーマン、スニッカーズのチョコレートバー、そして奇妙なことにマクドナルドのチキンマックナゲットなど、これまで好きでも食べたこともなかった食べ物への渇望を感じていることに気づきました。食べたいという欲求。

彼女はまた、奇妙な夢を見るようになりました。彼女は、ティムという名前だと信じていた痩せた若い男を見ることになる。具体的には、夢を見たとき、彼女の頭の中に「ティム・L」という言葉が浮かんでいました。移植当日までの地元の死亡記事を調べていたところ、彼女はティモシー・ラミランドに出会った。

ティモシー・ラミランドは、クレアの移植と同じ日にバイク事故で亡くなったとき、18歳でした。彼は地元のマクドナルドレストランから帰宅途中だった。医師らが彼の命を救おうと必死に服を脱がせたところ、上着のポケットからチキンマックナゲットの袋が見つかった。

彼女はこれまで会ったことのなかったティムの家族をなんとか追跡し、彼らは彼女に、彼女が抱いていた渇望は確かにビールなど、ティムがとても楽しんでいた食べ物に対するものであることを確認した。それ以来、彼女はティムの家族と連絡を取り続けています。 (記事全文)

これは、ABCニュースが8年前に公開した、事実上脳を持たずに生まれた赤ちゃんと、脳を持たずに生きる可能性はなかったため、医師が両親にその赤ちゃんを中絶するよう告げた様子についてのビデオです。

しかし両親は医師のアドバイスを受け入れず、赤ちゃんのジャクソン君は脳を持たないまま約6年間生き続けた。彼が医師や医学を無視してそうすることができたのは、彼の意識が脳ではなく心臓にあり、それは問題なかったからだ。

'Miracle Baby' Born Without Most of His Brain Defying Odds | ABC News
Doctors didn't think Jaxon Buell would live past a few days. Now he's 1 year old as his parents share their story.SUBSCRIBE to ABC NEWS:

電気で動く AI やコンピューターは、心臓から送られる血液で動く人間に取って代わることは決してありません。

AI に関するその他の資料:

「人工知能」の失敗と数十億ドルの損失の 75 年の歴史 現実世界のための SF への投資

The 75-Year History of Failures with “Artificial Intelligence” and $BILLIONS Lost Investing in Science Fiction for the Real World
"Artificial Intelligence" (AI) is all the rage again, including in the Alternative Media in recent days, with fantastic claims about what AI is going to do to transform society in the future. AI is promoted today as "new" technology, but did you know that AI has a 75+ year history of making fantastic claims about how it is going to transform society and replace humans? If you read the history of AI, you will see that many of the claims being made for AI today are not that new at all, and that in...

コンピュータが利用できない「データ」:

いいえ、私たちは神の秘密の知恵、隠された知恵、そして神が時が始まる前に私たちの栄光を得るように運命づけられていたことについて話します。この時代の支配者は誰もそれを理解していませんでした。もし理解していれば、栄光の主を十字架につけることはなかっただろうからです。

しかし、次のように書かれているように、「神を愛する者たちのために神が何を備えておられたのか、目も見たことも、耳も聞いたことも、心も思いつきませんでした。」しかし、神は御霊によってそれを私たちに明らかにしてくださいました。

御霊はあらゆるものを、神の奥深いものさえも探究します。

なぜなら、人の中にある人の精神以外に、人の考えを知る人がいるでしょうか?

同様に、神の御霊以外には神の思いを知る人はいません

私たちは世の霊ではなく、神が私たちに無償で与えてくださったものを理解するために神から出た御霊を受けました。 (コリント第一 2:7-12)

HealthImpactNews.comでこの記事にコメントしてください。

スポンサーリンク

コメント

タイトルとURLをコピーしました