ロンドン/ワシントン、8月11日(ロイター) – MicrosoftやGoogleなどの雇用主がChatGPTの使用を制限する懸念があるにもかかわらず、全米の多くの労働者が必須業務の支援を求めてChatGPTに頼っていることが、ロイター/イプソスの調査で明らかになった。
世界中の企業が、生成 AI を使用してユーザーと会話し、無数のプロンプトに答えるチャットボットである ChatGPT を最大限に活用する方法を研究しています。 しかし、セキュリティ企業や企業は、知的財産や戦略の漏洩につながる可能性があると懸念を表明している。
ChatGPT を日常業務に使用する例としては、電子メールの下書き、文書の要約、予備調査などが挙げられます。
7 月 11 日から 17 日にかけて行われた人工知能 (AI) に関するオンライン調査では、回答者の約 28% が職場で ChatGPT を定期的に使用していると回答しましたが、雇用主がそのようなサードパーティ ツールを明示的に許可していると回答したのはわずか 22% でした。
ロイター/イプソスが全米の成人2625人を対象に実施した世論調査では、精度の尺度である信頼区間は約2%ポイントだった。
調査対象者の約10%は、上司がサードパーティのAIツールを明示的に禁止していると答えたが、約25%は会社がそのテクノロジーの使用を許可しているかどうかは分からなかった。
ChatGPT は、11 月のリリース以来、史上最も急速に成長しているアプリになりました。 これは興奮と警戒の両方を引き起こし、特に欧州では開発者のOpenAIと規制当局との衝突を引き起こしており、同社の大量データ収集がプライバシー監視団体から批判を集めている。
他社の人間のレビュー担当者は、生成されたチャットを読む可能性があり、研究者らは、同様の AI がトレーニング中に吸収したデータを再現し、機密情報に対する潜在的なリスクを生み出す可能性があることを発見しました。
企業向けセキュリティ会社オクタ(OKTA.O)の顧客信頼担当バイスプレジデント、ベン・キング氏は「生成型AIサービスを利用する際、人々はデータがどのように使われるのかを理解していない」と語る。
「企業にとって、これは非常に重要です。なぜなら、ユーザーは多くの AI システムと契約していないためです。これは無料サービスであるためです。そのため、企業は通常の評価プロセスを通じてリスクにさらされることはありません」とキング氏は述べています。
OpenAIは、個々の従業員がChatGPTを使用することの影響についての質問にはコメントを避けたが、企業パートナーに対し、明示的な許可がない限り、そのデータがチャットボットのさらなるトレーニングに使用されないことを保証した最近の企業ブログ投稿を強調した。
ユーザーが Google の Bard を使用すると、テキスト、位置情報、その他の使用情報などのデータが収集されます。 同社では、ユーザーが自分のアカウントから過去のアクティビティを削除したり、AI に入力されたコンテンツの削除をリクエストしたりできるようにしています。 アルファベット傘下のグーグル(GOOGL.O)は詳細を求められたがコメントを拒否した。
マイクロソフト(MSFT.O)はコメント要請に応じていない。
無害なタスク
米国のTinder従業員は、同社が正式に許可していないにもかかわらず、出会い系アプリの従業員が電子メールを書くなどの「無害な作業」にChatGPTを使用していたと述べた。
記者と話す権限がないため匿名を避けたこの従業員は語った。
この従業員は、Tinderには「No ChatGPTルール」があるが、従業員は依然として「Tinder上での当社の存在について何も明らかにしない一般的な方法で」ルールを使用していると述べた。
ロイターは、Tinderの従業員がどのようにChatGPTを使用しているかを独自に確認できていない。 Tinderは「従業員にセキュリティとデータのベストプラクティスに関する定期的なガイダンス」を提供していると述べた。
サムスン電子は5月、従業員がChatGPTや同様のAIツールに機密コードをアップロードしたことが発覚し、世界中で従業員の使用を禁止した。
サムスンは8月3日の声明で、「従業員の生産性と効率を高める人工知能の生成的利用のための安全な環境を作り出すための対策を検討している」と述べた。
「ただし、これらの措置が講じられるまでは、会社のデバイスを使用した生成 AI の使用を一時的に制限します。」
ロイター通信は6月、アルファベットがGoogleのBardを含むチャットソフトウェアの使用方法について従業員に警告し、同時に同ソフトウェアを世界的に販売していたと報じた。
Googleは、Bardは一方的にコードの提案を行うことはできるが、それはプログラマーにとっては役に立つと述べた。 また、自社技術の限界について透明性を保つことを目指すと述べた。
禁止ブランケット
一部の企業はセキュリティを念頭に置いてChatGPTや同様のプラットフォームを採用しているとロイターに語った。
ジョージア州アトランタのコカ・コーラの広報担当者は、「AIがどのように業務効率を高めるかについてテストと学習を開始した」と述べ、データはファイアウォール内に残っていると付け加えた。
同社の広報担当者は「社内では最近、生産性向上のためにコカ・コーラChatGPTのエンタープライズ版を立ち上げた」と述べ、コカ・コーラは人工知能を活用してチームの効率性と生産性を向上させる計画だと付け加えた。
一方、テート・アンド・ライル(TATE.L)のドーン・アレン最高財務責任者(CFO)はロイターに対し、この世界的部品メーカーが「安全な方法でChatGPTを使用する方法を見つけた」ため、ChatGPTをテストしていると語った。
「一連の実験を通じて、さまざまなチームにそれをどのように使用するかを決定してもらいました。投資家向け広報活動で使用する必要がありますか? ナレッジ管理で使用する必要がありますか? タスクをより効率的に実行するためにどのように使用できるでしょうか?」
従業員の中には、会社のコンピューターではプラットフォームにまったくアクセスできないと言う人もいます。
プロクター・アンド・ギャンブル(PG.N)の従業員は報道陣に話す権限がないため匿名を希望したが、「オフィスのネットワークは完全に立ち入り禁止だ。機能していないからだ」と語った。
プロクター・アンド・ギャンブルはコメントを控えた。 ロイターは、P&Gの従業員がChatGPTを使用できないかどうかを独自に確認できていない。
サイバーセキュリティ企業ノーミネットの最高情報セキュリティ責任者、ポール・ルイス氏は、企業が慎重になるのは当然だと語った。
「誰もがこの能力の向上から恩恵を受けていますが、情報は完全に安全ではなく、変更される可能性があります」と同氏は述べ、AIチャットボットに情報を暴露させるために使用される可能性のある「悪意のある主張」を挙げた。
ルイス氏は「全面禁止はまだ正当化されていないが、慎重に対処する必要がある」と述べた。
Richa Naidoo、Martin Coulter、Jason Lang による追加レポート。 アレクサンダー・スミス編集
当社の基準: トムソン・ロイターの信頼原則。
「主催者。ポップカルチャー愛好家。熱心なゾンビ学者。旅行の専門家。フリーランスのウェブの第一人者。」
More Stories
ベストバイ、売上高の減少が安定し利益予想を上回る
NVDA(NVDA)の株価は利益が予想を上回ったため下落
人工知能チップ大手エヌビディアの株価は、300億ドルという記録的な売上にも関わらず下落した