研究者はまた、対話を含まないピクサーの短いビデオを参加者に見せ、デコーダーがユーザーが見ているものの一般的なコンテンツを復元できるかどうかをテストするために設計された別の実験で脳の反応を記録しました. であることが判明しました。
パリの視覚研究所の理論神経科学者で、この実験には参加していない Romain Brette は、現段階でこの技術の有効性を完全に確信しているわけではありません。 「アルゴリズムの仕組みは基本的に、AI モデルが脳スキャンから推測された文の意味領域に関するあいまいな情報から文を構成することです」と彼は言います。 「一般的なレベルで、夢を見たことを推測するなど、興味深いユースケースがいくつかあるかもしれません。 しかし、私たちが本当に思考を読むレベルに近づいているかどうかについては、少し懐疑的です。」
まだうまく機能していないかもしれませんが、この実験は、監視と尋問のための脳デコーダーの将来の使用の可能性に関する倫理的な問題を引き起こします. これを念頭に置いて、チームは人の協力なしでデコーダーをトレーニングして実行できるかどうかのテストに着手しました。 彼らは、別の人からのデータでトレーニングされたデコーダー モデルを使用して、各参加者から知覚された音声をデコードしようとすることで、これを行いました。 彼らは、「かろうじてチャンスを超えて」実行したことを発見しました。
彼らによると、これは、その人が進んでデコーダーのトレーニングを最初から手伝っていない限り、デコーダーを誰かの脳活動に適用することはできないことを示唆しています。
「精神的なプライバシーは非常に重要であり、誰の脳も彼らの協力なしに解読されるべきではないと考えています」と、このプロジェクトに参加した大学の博士課程の学生である Jerry Tang は言います。 「私たちは、脳の解読がプライバシーに与える影響を研究し続け、各個人のメンタル プライバシーを保護するポリシーを制定することが重要であると考えています。」