11月 25, 2024

FUTSALNET

日本からの最新ニュースと特集:ビジネス、政治、解説文化、ライフ&スタイル、エンターテインメント、スポーツ。

耳の音が目の動きを明らかにする

耳の音が目の動きを明らかにする

まとめ: 研究者らは、耳が目の動きに反応して微妙な音を発し、人がどこを見ているかを判断できることを発見しました。

この研究は、筋肉の収縮や有毛細胞の活性化によって引き起こされる可能性のあるこれらの耳の音によって、目の位置が明らかになる可能性があることを示しています。

この発見は、耳の機能に関する既存の考えに疑問を投げかけ、耳の音は視覚と聴覚の認識を同期させるのに役立つ可能性があることを示唆しています。 このチームの革新的なアプローチは、新しい臨床聴覚検査と感覚統合のより深い理解につながる可能性があります。

重要な事実:

  1. この研究により、微妙な耳の音は目の動きに対応しており、人がどこを見ているかについての洞察が得られることが明らかになりました。
  2. この現象はおそらく、脳が耳の筋肉の収縮または有毛細胞の活性化と目の動きを調整した結果であると考えられます。
  3. この発見は、新しい臨床検査の可能性と、脳が視覚情報と聴覚情報を統合する方法についてのより良い理解の可能性をもたらします。

ソース: デューク大学

科学者たちは、耳を聞くだけで、その人の目がどこを見ているかを判断できるようになりました。

「外耳道にマイクを入れて録音しただけで、目の動きや目が見つめる対象の位置を実際に推定することができます」と、この論文の上級著者であるジェニファー・グロー博士は述べています。本。 新しい報告書は、デューク大学の心理学、神経科学、神経科学の学部の教授である。

プロジェクトの 1 つのグループは、聴覚または視覚を失った人々の目と耳の動きの音がどのように異なるかに焦点を当てています。 クレジット: 神経科学ニュース

2018年、グロー氏のチームは、目が動くと耳からかすかな、知覚できないノイズが発せられることを発見した。 11月20日の週に雑誌に掲載された新しいレポートで 米国科学アカデミーの議事録さて、デュークのチームは、これらの音があなたの目がどこを見ているかを明らかにすることができることを示しました。

逆にも機能します。 グローと彼女のチームは、誰かがどこを見ているかを知ることによってのみ、微妙な耳の音の波形を予測することができました。

グロー氏は、目の動きによって脳が刺激されて、通常は大きな音を減衰させる役割を果たす中耳の筋肉、または静かな音を増幅させる役割を果たす有毛細胞のいずれかを収縮させるときに、これらの音が発生するのではないかとグロー氏は考えている。

この耳鳴りの正確な目的は不明ですが、彼の最初の予感は、それが人々の認識を鋭くするのに役立つかもしれないということです。

「頭と耳が動かなくても目は動くのに、これは脳が視覚や音の位置に同調することを可能にするシステムの一部であると私たちは考えています」とグロー氏は言う。

微妙な耳の音と視覚の関係を理解することは、聴覚の新しい臨床検査の開発につながる可能性があります。

「耳の各部分が鼓膜信号に個別のルールを与えているのであれば、耳の解剖学的構造のどの部分に欠陥があるかを評価するための一種の臨床ツールとして使用できる可能性がある」と研究の筆頭著者の一人であるステファニー・ロビッチ氏は述べた。 この論文の著者はデューク大学で心理学と神経科学を専攻する大学院生。

目の瞳孔がカメラの絞りのように収縮または拡張して、入ってくる光の量を調整するのと同じように、耳にも聴覚を調節する独自の方法があります。 科学者たちは長い間、これらの音響調整メカニズムは静かな音を増幅したり、大きな音を弱めたりするのに役立つだけだと信じてきました。

しかし、2018年にグロー氏と彼女のチームは、同じ音響調節メカニズムが目の動きによっても活性化されることを発見し、脳が目の動きについて耳に伝えることを示唆している。

最新の研究では、研究チームは最初の発見を追跡調査し、かすかな聴覚信号に目の動きに関する詳細な情報が含まれているかどうかを調査しました。

人々の耳の音を解読するために、デューク大学のグロー氏のチームとクリストファー・シラー博士は、 彼は南カリフォルニア大学から、視覚と聴覚に障害のある成人16人をダーラムにあるグローの研究室に集め、かなり簡単な視力検査を受けさせた。

参加者はコンピューター画面上の静止した緑色の点を見て、頭を動かさずに、開始点から上下左右、または斜めに点が消えたり再び現れたりするのを目で追跡しました。 これにより、Groh のチームは、目が水平、垂直、または斜めに動くときに生成される広範囲の聴覚信号を得ることができました。

アイトラッカーは参加者の瞳孔がどこを向いているかを記録し、マイクに内蔵されたイヤホンを使用してキャプチャされた耳の音と比較しました。

研究チームは耳の音を分析し、さまざまな動きの方向に特有の特徴を発見しました。 これにより、音波を調べるだけで耳の音を解読し、人々がどこを見ているかを計算できるようになりました。

「斜めの目の動きは単なる水平成分と垂直成分であるため、私の研究室の同僚で共著者のデイビッド・マーフィーは、これら 2 つの成分を取り出して、それらを組み合わせるとどうなるかを推測できることに気づきました」とロビッチ氏は語った。

「次に、反対方向に進んで振動を観察すると、誰かが左 30 度の角度を見ていることが予測できます。」

彼の子犬は現在、これらの耳鳴りが知覚に役割を果たしているかどうかを調べるために出発しています。

プロジェクトの 1 つのグループは、聴覚または視覚を失った人々の目と耳の動きの音がどのように異なるかに焦点を当てています。

グロー氏はまた、聴覚や視覚に障害のない人が、聴覚情報を視覚デバイスにマッピングすることに依存する、運転中の救急車の位置を特定するなどの音声位置特定タスクでどれだけうまくできるかを予測できる耳信号を生成するかどうかもテストしている。 シーン。

「毎日本当に再現性のある信号を発する人もいます。それをすぐに測定できます」とグロー氏は言う。 「これらの人々は、他の人々と比べて視覚的および聴覚的タスクが非常に優れており、そのタスクがより多様であることが期待されるでしょう。」

資金調達: グロー氏の研究は、国立衛生研究所からの助成金 (NIDCD DC017532) によって支援されました。

視覚・聴覚神経科学研究ニュースについて

著者: ダン・ヴァハバ
ソース: デューク大学
コミュニケーション: ダン・ヴァハバ – デューク大学
写真: 画像提供:Neuroscience News

元の検索: オープンアクセス。
目の動きに関するパラメトリック情報が耳に送信されます。「ジェニファー・グロー他著。 人と


まとめ

目の動きに関するパラメトリック情報が耳に送信されます。

目が動くと、視覚シーンと聴覚シーンの間の位置関係が変化します。 私たちはこれらの変化に気づいていませんが、このことは、脳が目の動きに関する正確な情報を聴覚と視覚の処理に統合する必要があることを示唆しています。

今回我々は、耳の中で脳によって生成される小さな音には、空間領域における同時の目の動きに関する正確な情報が含まれていることを示します。目の動きの方向と振幅は、これらの小さな音から推測できます。

根底にあるメカニズムには、耳のさまざまな運動構造が関与している可能性が高く、入ってくる聴覚信号を目の方向に固定された基準フレーム、つまり視覚的なシーンに変換することを容易にします。

READ  見事な画像は、これまでにないような宇宙を示しています