シェア

モビリティ: これは心を読む車です

日産は自動運転車のプロトタイプを開発しました。この自動運転車は、「ヘッドフォン」のおかげで、ドライバーの脳から発せられる信号を収集し、ドライバーの動きを予測して操作を容易にします。 したがって、人工知能は運転の改善に役立ちます

モビリティ: これは心を読む車です

新しい種類の車があります。電気自動車であるだけでなく、私たちの考えを読み取ることもできます。 魔法のようなものではなく、逆にそれは研究の高度なヒントです 脳から乗り物へ (B2v)。 どんな内容ですか? XNUMXつのおかげで cuffia 私を集める 脳信号 ハンドルを握っている人の、車両の能力 その動きを予想する EF操縦を容易にする. を達成するために 最初のプロトタイプ の実験室でした。 ブレインマシンインターフェース ローザンヌ工科大学の日産と共同で、毎年ラスベガスで開催されるコンシューマー エレクトロニクス ショーで発表しました。

funzionaを来

ドライバーは脳波活動を測定できるデバイスを装着し、自律システムによって分析されます。 人間の意図と動きを予測することで、システムはドライバーの 0,2 ~ 0,5 秒前に介入 (ハンドルを切る、車両を減速するなど) することができますが、その操作はほとんど感知されません。

したがって、この技術は、ドライバーが何かをしようとするとすぐに (ハンドルを切る、アクセル ペダルを踏むなど)、脳とドライバー アシスタンス システムから発せられる信号を検出します。迅速に介入し、反応時間を短縮し、マニュアル ガイダンスを改善します。 人間の意図と動きを予測することで、システムはドライバーの 0,2 ~ 0,5 秒前に介入 (ハンドルを切る、車両を減速するなど) することができますが、その操作はほとんど感知されません。

一方、人工知能は、快適さの程度を検出して評価し、必要に応じて構成や運転スタイルを変更することもできます。 その他の可能な用途には、車両の内部環境への適応が含まれます。 たとえば、この新技術は、拡張現実を使用してドライバーの視覚を微調整し、よりリラックスした雰囲気を作り出すことができます。 または、エアコンの制御、仮想アシスタントおよびナビゲーターとしての機能など、他の機能を実行します。

別の自律ガイド

日産の B2V に関する研究は、ETH ローザンヌとの長期研究開発プロジェクトの一環として 2011 年に開始され、2015 年には上級革新研究者 (SIR) プログラムに選ばれました。

「B2V 技術の応用の可能性は驚くべきものです」と彼はコメントしています。 日本の日産リサーチセンターの上級イノベーション研究員であり、Brain to vehicle プロジェクトの責任者であるルシアン・ゲオルゲ氏は次のように述べています。 「私たちの使命は、未来の車に付加価値を与える方法を見つけ出し、誰も思いつかなかった真のソリューションを作ることです。」

実際には、自動運転車のようにドライバーを置き換えるのではなく、 脳から乗り物へ ドライバーの欲求を予測することで、ドライバーの思考を「利用」します。運転するのは常に人間ですが、ドライバーが間違いを犯さないように、そしておそらくもっと楽しむために、目に見えないアシスタントに助けられます。

も参照してください。 インターネットの巨大企業と人工知能の地震: それらにどう対処するか?

レビュー