によると
目を見張るような話 土曜日のワシントンポストで、グーグルのエンジニアは、未発表の洗練された人工知能システムとの何百もの相互作用の後に、
ラムダこのプログラムは、ある程度の認識を達成したと信じられていました。
インタビューや公式声明の中で、AIコミュニティの多くはエンジニアの主張を却下しましたが、彼のアカウントは、テクノロジーが人々に人間の特性を割り当てる方法を強調していると指摘する人もいます。 しかし、GoogleのAIが意識できるという信念は、このテクノロジーが何をすることができるかについての私たちの恐れと期待を浮き彫りにしていると主張することができます。
ダイアログアプリケーションの言語モデルの略であるLaMDAは、インターネットからの大量のテキストでトレーニングされ、書かれたプロンプトに応答できる、いくつかの大規模なAIシステムの1つです。 彼らは、基本的に、パターンを見つけて、次に来る単語を予測するという任務を負っています。 そのようなシステムは
ますます良い 説得力のある人間のように見える方法で質問に答えたり書いたりする—そしてGoogle自体
LaMDAはこの5月にブログ投稿で紹介しました その一人として、彼は「一見無限の数のトピックの周りを自由に流れるように取り組む」ことができます。 しかし、結果はまた、ばかげて、奇妙で、迷惑で、気が散る傾向があります。
エンジニアのブレイク・レモインはワシントンポスト紙に、ラムダが意識しているという証拠をグーグルと共有したと伝えたが、同社は同意しなかった。 グーグルは月曜日に声明の中で、倫理学者と技術者を含むチームが「私たちのAI原則に従ってブレイクの懸念を検討し、証拠が彼の主張を裏付けていないことを彼に知らせた」と述べた。
6月6日、Lemoineは、Googleが「私が社内で提起していた人工知能に関する倫理的懸念の調査に関連して」彼を有給の休職に置き、「すぐに」解雇される可能性があるとMediumに投稿しました。 (彼は、Googleの倫理的AIチームのリーダーであったマーガレットミッチェルの経験について言及しました。
Googleは2021年初頭にそれを開始しました 彼女の率直な後
2020年後半に、当時の共同リーダーであったティムニット・ゲブロが退任します。 Gebruは、会社のAIリーダーシップに会議での提案の検討を撤回するか、彼女の名前を削除するように依頼した研究論文に関連するものを含む、内部の争いの後に追放されました。)
グーグルのスポークスマンは、レモインが休職のままであることを確認した。 ワシントンポスト紙によると、彼は会社の守秘義務に違反したために休職した。
Lemoineは月曜日にコメントすることができませんでした。
ビッグデータでトレーニングされた強力なコンピューティングプログラムの継続的な出現により、このテクノロジーの開発と使用を管理する倫理について懸念が生じています。 また、現在可能なことではなく、何が起こるかという観点から開発が見られることもあります。
Lemoineの実験に対するAIコミュニティの人々からの反応は、週末にソーシャルメディアに響き渡り、一般的に同じ結論に達しました。GoogleのAIは意識にさえ近づいていません。 Mozillaの人工知能の信頼できるシニアフェローであるAbibaBirhaniは、
チャープ 日曜日、「私たちは 『この意識的なニューラルネットワーク』の新時代に入りました。今回は、それを論駁するのに多くのエネルギーが必要です。」
Uberが販売するGeometricIntelligenceの創設者兼CEOであり、「AIの再起動:信頼できる人工知能の構築」などの本の著者であるGary Marcusは、LaMDAのアイデアを意識的であると説明しました。
「竹馬のでたらめ」 ツイートで。 すぐに書いた
ブログ投稿 これらのAIシステムはすべて、言語の大規模なデータベースから取得することでパターンマッチングを実行することに注意してください。
月曜日のCNNBusinessとのインタビューで、マーカス氏は、LaMDAのようなシステムを考える最良の方法は、テキストメッセージの次の単語を予測するために使用できるオートコンプリートプログラムの「栄光のバージョン」であると述べました。 「本当にお腹が空いたので行きたい」と書いたら、次の言葉として「レストラン」を提案するかもしれません。 しかし、これは統計を使用して行われた予測です。
「ステロイドであっても、オートコンプリートが意識的であると誰も考えるべきではない」と彼は述べた。
の創設者兼最高経営責任者であるゲブルとのインタビューで
分散型人工知能研究所DAIR、またはDAIR、Lemoineは、意識的な人工知能または人工知能(人間のようなタスクを実行し、意味のある方法で私たちと対話できる人工知能を指すアイデア)はそれほど遠くないと主張する多くの企業の犠牲者であると述べました。
たとえば、OpenAIの共同創設者兼チーフサイエンティストであるIlya Sutskiverは、次のように述べています。
チャープ 2月、「今日の大規模なニューラルネットワークは少し意識があるかもしれません。」 そして先週、GoogleResearchの副社長で同僚のBlaiseAguera y Arcas
エコノミストの記事に書かれています 彼が昨年LaMDAを使い始めたとき、「私はますます何か賢いことについて話しているように感じました」。 (この記事には、Lemoineが「GoogleのチャットボットであるLaMDAが「意識的」になったとワシントンポストとのインタビューで主張した後、完全に身をかがめられた」という編集者のメモが含まれています。)
「何が起こるかというと、より多くのデータ、より多くのコンピューティングを使用するという競争があります。つまり、あなたが知っているこの一般的なものを作成し、すべての質問に答えるということです。それがあなたがプレイしているドラムです」とゲブル言った。 。 「それで、この人がそれを極端にしたとき、あなたはどのように驚いていますか?」
Googleはその声明の中で、LaMDAは、品質、安全性、事実に基づくデータを作成する能力に関して、11の「AI原則の個別のレビュー」と「厳密な調査とテスト」を受けたと述べています。 「もちろん、より広いAIコミュニティの一部は、意識的または一般的なAIの長期的な可能性を研究していますが、意識的ではない現在の会話モデルを具体化することによってそうすることは意味がありません」と同社は述べています。
「何百人もの研究者やエンジニアがラムダと会話を交わしており、ブレイクのように広範なアサーションを提供したり、ラムダを具体化したりしている人は他にいない」とグーグルは述べた。
「主催者。ポップカルチャー愛好家。熱心なゾンビ学者。旅行の専門家。フリーランスのウェブの第一人者。」
More Stories
ベストバイ、売上高の減少が安定し利益予想を上回る
NVDA(NVDA)の株価は利益が予想を上回ったため下落
人工知能チップ大手エヌビディアの株価は、300億ドルという記録的な売上にも関わらず下落した