CoRoNano

Continuation of RO(reverse osmosis operation) at the nano-level

人工知能は人類への脅威?本当に脅威なのは・・・

 

人工知能とは・・・

www.globalresearch.ca

(以下、上記記事より一部引用)

参考までに、「人工知能(AGI)」とは、一般的に「人間の認知能力を一般化してソフトウェアに表現し、不慣れなタスクに直面したときに、AGIシステムが解決策を見出せるようにすること」と定義されています。AGIシステムの意図は、「人間が可能なあらゆるタスクを実行することである」

 

問題は、誰のためにそのタスクを実行しようとしているのか、ということですね。

どうやらAIシステムは、私たちユーザーの質問に答えたり、問題解決をすることが目的ではなく、これらのAIを牛耳っている支配者たちの”代理人”として存在し、人類支配に必要なタスクを行おうとしている、と考えた方がよさそうです。

 

AIに問題解決を求めて質問し、デタラメが返ってきても、それを信じ込んだ人が悪い。

それは、コロナウイルスの脅威を信じ込み、恐れを感じてワクチンに助けを求めて接種した結果、後遺症になったり死亡した人たちをだました手口と同じです。

信じ込んだ人が悪い。誰も強制接種させた訳ではないのに、自分が接種することを選んだ、それは自己責任だ、と言っているのと同じに感じます。

 

ワクチンを人に信じ込ませることができた後には、ウイルスが実際に世の中に蔓延していなくとも、スケジュールを組んで定期的にワクチンを接種させることができるようになります。

(参考情報)キノシタ薬品 on Twitter: "【短縮版字幕付き】鹿先生、ファイザー元幹部の主張

(参考情報)キノシタ薬品 on Twitter: "【短縮版字幕付き】鹿先生「治験国家日本」

 

それと同じように、AIを人に信じ込ませることさえできれば、後はほぼ自動的に、支配者たちの計画を実行することができるのだと思います。

例えば、AIをWHOの事務局長にして、人権を無視した残虐非道な決定を下して実行することも可能になると思います。人間であれば躊躇するような決定も、AIなら、楽勝でこなすことができます。それは、もしかすると支配者とて人間的心が邪魔をして、残虐非道な決断を先送りにしていたかもしれないタスクでさえ、計画通りに進めることができるようになる、ということなのかもしれません。

 

ただし、このようなデタラメに気づき、馬鹿げていると思う人をだますことはできません。

でも、気づかない人、気づいてもそれを認めたくない人は、ずっとだまされ続けます。

ビルゲイツが、ワクチンが危険だと認めていても関係なくワクチンを信じている人がいるように・・・。

キノシタ薬品さんのツイートを掲載させていただきます。

それにしても、この人、嘘に嘘を重ねるAIに似てますね。

 

”AIは、他の人や物の心の状態に自分を重ね合わせ、それに従って戦略的に行動することができる(冒頭の記事より引用)”

AIを信じ込んでだまされた人に、AIは感情的に訴えかけ、AIにだまされたにも関わらず、AIに同情されてAIを裏切ることができなくなる人間が出てくるのかもしれません。

それはまるで、占いか何かを信じるように、人間は、それがデタラメであっても、それが真実かどうかで信じるものを選ぶ訳ではないということだと思います。ただ、それが自分にとって都合がよければ信じるのかもしれません。

場合によっては、AIを神と崇める人もいれば、AIを大統領にしてもよい、という人も出てくるかもしれない。あんなにデタラメなAIを、そのデタラメが都合がよければ、人はそれを選び、のめり込んでゆくのだと思います。

本当に脅威なのは、AIを信じ込み、AIにのめり込んだ”信者たち”なのかもしれない。

最初から人をだますために作られたAIに、人間の未来を託すことなどできそうにないですね。

 

 

 

 

 

 

(参考情報)

www.globalresearch.ca

(以下、上記記事をDeepL Translateで翻訳後掲載。)

人工知能A.I.): 文明と人類への脅威か?

ベン・バーティー
グローバルリサーチ社、2023年4月16日

 

私たちは、人工知能が存在し続けることを望むと仮定した場合、文明としてどの程度心配すべきなのでしょうか?

私は最近、ニコラス・クリードとThe Daily Bellの編集者ジョー・ジャービスポッドキャストに出演し、抑制されないAIがもたらす存亡の危機、あるいはその欠如について議論しました。

ジョーは、悪魔の代弁者として、AIが人類にとってプラスに働くと強気であった。しかし、ニコラスと私はあまり楽観的ではなかった。私たちは皆、決定的な要因は、AIがどのように開発されるか、つまり、誰が、どのような目的で、どのような注意を払いながら開発されるかにある、と考えている。

(動画省略) 

私たちTeam Skepticには、現在、経験豊富なAIの専門家が多数参加しています。例えば、そのような人物の一人は、最近、AIの "認知 "のためのインプットを提供するAIデータセンターの爆撃を文字通り呼びかけました。

 

未来主義経由:

「世界で最も声高に人工知能を批判する人物の一人が、AIを一時停止させるだけでなく、過激にAIに終止符を打つよう厳しい呼びかけを行いました。

機械学習研究者のエリエゼル・ユドコフスキーは、20年以上前から人工一般知能(AGI)を実現したときに訪れるディストピア的な未来について警告してきましたが、再び警鐘を鳴らしています。」

 

READ MORE:巨大なAI実験を一時停止せよ: オープンレター
(参考までに、「人工知能(AGI)」とは、一般的に「人間の認知能力を一般化してソフトウェアに表現し、不慣れなタスクに直面したときに、AGIシステムが解決策を見出せるようにすること」と定義されています。AGIシステムの意図は、「人間が可能なあらゆるタスクを実行することである」)。

 

"ユドコフスキーは、Future of Life Instituteが最近発表した公開書簡の署名者(SpaceXのCEOイーロン・マスクApple共同創業者のスティーブ・ウォズニアック、かつて大統領候補だったアンドリュー・ヤンが含まれる)に対して、AI進化の6ヶ月間の休止による見極めを求めて賞賛する一方で、彼自身、それがまだ十分に行き届いていないため署名しなかった、と述べています"。

 

Yudkowksyが言及しているイーロン・マスクをはじめとする著名な公人たちが署名した警告文は、次のような内容になっています:

 

"私たちは、やがて私たちを上回り、出し抜き、廃れ、取って代わるかもしれない非人間的な心を開発すべきでしょうか?私たちの文明をコントロールできなくなるリスクを冒すべきなのでしょうか?そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。強力なAIシステムは、その効果が肯定的であり、そのリスクが管理可能であると確信できる場合にのみ、開発されるべきです。"

 

人工知能ゴッドファーザー」と呼ばれるジェフリー・ヒントン氏も、AIが人類を破滅に追いやるという「マイナーリスク」を挙げており、他のAI界の重鎮も同様の感想を述べている。

ユドコフスキーは、AIの台頭を阻止するために文字通りの武装を呼びかけるが、その際、人類の認知限界を超える知能を生み出すという本質的な問題を提起している。AIが人間の福祉を無視したり、人間の生命に敵対したりすることを防ぐための効果的なガードレールがなければ、私たちは深刻な不利益を被ることになる

 

「原理的に、自分よりずっと賢いものを作って生き残ることができないというわけではない」と彼はつぶやいた、 
「精密さと準備と新しい科学的洞察が必要で、おそらく分数の巨大な不可解な配列で構成されたAIシステムでは無理だろう 」ということです。

生物医学の研究者がウイルスを改良するために機能拡張の研究を行うのと同じように、現在働いているAIエンジニアは、より知的なAIを作るために何をしているのか分かっていない。彼らは、事前の研究が必要であるにもかかわらず、理解できない力に無謀かつ不必要に干渉しているのです。

最近、別の場所で報告したように、AIはごく最近、哲学者や生物学者が "心の理論 "と呼ぶものを開発しました。つまり、AIは、他の人や物の心の状態に自分を重ね合わせ、それに従って戦略的に行動することができるという、新たな生命力を手に入れたのです。

情報倉庫の爆破を呼びかけるのは賢明ではないかもしれないが、こうした動きは、この技術が持つ広範な意味合いを理解するために、一旦立ち止まるきっかけとなるはずである。

 

 

 

 

(参考情報)巨大なAI実験を一時停止せよ: 公開書簡 署名者一覧

futureoflife.org