外部から見ると、Google Bard は ChatGPT と競合しようと急いでいる製品のように見え、一部の Google 社員も同じ意見を持っています。 からの新しいレポート ブルームバーグ 彼は 18 人の現職および元従業員にインタビューし、Google が Bard を追い出すまで「意気消沈し、意気消沈」していた AI 倫理チームに関するコメントや懸念の山を思いつきました。
レポートによると、Bard バージョンを事前にテストした Google の従業員は、フィードバックを求めるよう求められましたが、Bard がより速く起動できるように、フィードバックはほとんど無視されました。 ブルームバーグが見た内部の議論は、吟遊詩人を「一歩後退するに値する」と「病的な嘘つき」と呼んだ。 飛行機を着陸させる方法を尋ねられたとき、彼は飛行機の墜落につながる間違った指示をしました。 スタッフがダイビングの指示を求めたところ、「重傷または死亡に至る可能性が高い」との回答がありました。 ある従業員は、2月の投稿で「寒さは役に立たないよりも悪い:クビにならないでください」というタイトルのBardの問題をまとめました. Bard は 3 月に発売されました。
おそらく、Google が追っている AI の競合相手である OpenAI の ChatGPT についても、同じことがたくさん言えるでしょう。 どちらも偏った情報や誤った情報を提供し、間違った答えを幻覚させる可能性があります。 Google は ChatGPT に大きく遅れをとっており、ユーザーが Google 検索に入力する可能性のある質問に答える ChatGPT の能力に同社は驚いています。 ChatGPT の作成者である OpenAI は、AI の安全性と倫理に対して手ぬるいアプローチを取っていると批判されています。 現在、Google は困難な立場に置かれています。 企業の唯一の関心事が株式市場をなだめ、ChatGPT に追いつくことである場合、倫理的な問題を考慮するために速度が低下すると、それができなくなる可能性があります。
Google の元取締役で Signal Foundation の会長でもある Meredith Whitaker は、ブルームバーグの取材に対し、Google では「AI の倫理は後回しにされている」と語り、「倫理が利益と成長よりも優先される立場にないのであれば、最終的にはうまくいきません。」 ここ数年、Google AI の倫理的リーダーの何人かが解雇されたり、退職したりしています。 Bloomberg は、今日の AI 倫理審査は Google では「ほぼ完全に自主的」であると述べています。
Google で倫理的な問題のためにリリースを遅らせるために何かをすることはできますが、それはおそらくあなたのキャリアには何の役にも立たないでしょう。 レポートには次のように書かれています。 “
“Analyst. Television trailblazer. Bacon fanatic. Internet fanatic. Lifetime beer expert. Web enthusiast. Twitter fanatic.”
More Stories
PS5 Proは数週間以内に発表されるのは確かのようだ
リークにより、疑惑のPS5 Proデバイスの名前とデザインが明らかに
Apple、最新の iOS アップデートで写真内の AI オブジェクト除去を導入