シェア

宇宙旅行と電気自動車の間の人工知能:来るべき未来

これまでの人工知能の進歩には目を見張るものがあります。 彼らは、達成される速度と同じくらい、達成された結果にも影響を与えます。 しかし、おそらくこれは危険な状況になるでしょう。

今後の展望

ドバイで開催された最近の世界政府サミットで、彼の会社の電気自動車を宣伝するために、イーロン・マスクはさまざまな問題に対処することに失敗しませんでした. 南アフリカ出身の億万長者は、いつものように、人工知能の開発と社会的影響の可能性に由来する未知のものから、モビリティ、惑星間旅行、さらには星間旅行まで、可能なシナリオの概要を説明するまで、全面的に範囲を広げました。近い将来、見逃すことなく、いくつかのアイデアは中長期的な視野に向けて予測されました。

先見の明があり、明日の現実を予測し、宇宙旅行のパイオニア (SpaceX)、電気モビリティの促進者 (Tesla)、環境に優しいエネルギーの最近の支持者 (Solar City) であると多くの人に考えられています。非常に野心的で裕福なマスク氏は、人類に利益をもたらす解決策を模索していると語っています。 中傷する人は少なくなく、慎重さが必要ですが、彼が常に前向きな視線を備えた輝かしい知性を否定することはできません。また、好むと好まざるとにかかわらず、世界の運命を想像し、形作る上で何らかの役割を果たしていることを否定することはできません。来て。

したがって、彼の話に耳を傾けることは価値があり、それからおそらく、提起された話題を熟考し、疑問を投げかけることは価値があります。 ここでは、マスクのスピーチから推定されたいくつかの文から始めて、人工知能に関連するいくつかのトピックを深めます。

より厄介な問題の XNUMX つは、人工知能です。深層人工知能、または一般的な人工知能と呼ばれることもあり、地球上で最も賢い人間よりもはるかに賢い AI が存在する可能性があります。 これは危険な状態になると思います。

これまでの人工知能の進歩には目を見張るものがあります。 それらは、達成された結果と、達成された速度と同じくらい重要です。 明らかに止められない非常に速い歩行で、減速するのではなくますます加速します。 実際、マイクロプロセッサのトランジスタ数の増加に関連してムーアの法則が規定するものに従って、指数関数的な傾向に従う傾向があります。 私たちの心の落とし穴を実際に隠してくれるリズム。

特異点は2047年に待っている、孫正義の言葉

エリック・ブリニョルフソンとアンドリュー・マカフィー (The Second Machine Age、2014 年) によると、人工知能の分野における進歩は、数学的な観点からは一定ではあるものの、私たちの目には秩序立っているようには見えないというのが事実です。 XNUMX 人の著者は、ヘミングウェイの言葉を借りて、人を破滅へと導く螺旋に言及することで、それを例証しています。

これは、指数関数的進行が徐々に増加し、最初はほとんど無視できる程度であり、明らかに突然の加速が発生し、量が計り知れない、想像を絶することさえあり、したがってまったく管理できなくなる点まで記録することを意味します。

言い換えれば、この速度で続けると、マシンの有効な計算能力 (自律的に自分自身を改善し、おそらく自己認識を発達させることができるようになるまで進化できる人によると) と人間がそれを想像し、封じ込め、予測し、制御する能力。 この深遠なカエスラの瞬間は、シンギュラリティの名を冠しています。 特異点は依然として推測であり、全会一致の合意は得られていませんが、ますます具体的になり、残念ながら近いように見える不測の事態について説明しています。

Softbank Robotics の CEO である Masayoshi Son は、最近バルセロナで開催されたモバイル ワールド コングレスで講演し、XNUMX 年以内に単一のマイクロプロセッサに含まれる IQ は、私たちの中で最も賢い人のそれよりもはるかに高くなるだろうと述べました。 「今から XNUMX 年後の私たちの靴のチップは、私たちの脳よりも賢くなるでしょう。 私たちの価値は靴よりも低くなるでしょう。」

Son の予測は、脳内のニューロン数とチップ上のトランジスタ数の比較に基づいています。 彼の計算によると、2018 年にはトランジスタが運命的な追い越しを行い、数字が発散し始めるでしょう。 比較的短期間で、個々のマイクロプロセッサは約 10.000 と推定される IQ を獲得しますが、人類の歴史の中で最も優秀な頭脳は 200 に達することはほとんどありません。 「それは、どんなに頭が良くても、人の想像を超える知性です。 それでもなお、2047年以内にこれらすべてが現実のものになると確信しています». したがって、特異点の出現の日付もわかります: XNUMX.

したがって、私たちは近くにいて、屈服する運命にあるのでしょうか? Son は、人間と機械が共存し、協力できる未来に楽観的で自信を持っていると言います。 「このスーパーインテリジェンスが私たちのパートナーになると信じています。 乱用するとリスクが生じます。 正直な意図[善意]に従って使用すれば、より良い生活の仲間になります».

人工知能がどのように採用されているかについては、細心の注意を払う必要があると思います…したがって、人工知能を綿密に監視し、それが人々に危険をもたらさないようにする政府が必要であることは、公共の安全にとって重要だと思います。

特異点は人類にとって非常に深刻な脅威です

Google は最近、その DeepMind によって開発された AI で行われた研究の結果を発表しました。これは AlphaGo で克服できることが証明され、ゲームを次々と学習し (ディープ ラーニング)、最初にヨーロッパの囲碁チャンピオン、そして最後に世界のチャンピオンになりました。 これらは暫定的な結果であり、決定的な研究はまだ発表されていませんが、証拠は、高度な AI が動作する環境に適応し、そこから学習できることを示しています。 さらに、追い詰められて屈服する危険がある場合、勝つために「非常に攻撃的」と定義された戦略を使用することを選択します。 「研究者は、エージェントが知性が高いほど、環境から学習する能力が高く、非常に攻撃的な戦術を使用してトップに立つことができることを示唆しています。」

いくつかの権威ある声は、特に高度な AI が非常に具体的な脅威をもたらす可能性があるという懸念を表明しています。 その中には、種の継続さえも危険にさらされている可能性があると考えているスティーブン・ホーキングの言葉があり、「完全な人工知能の開発は人類の終わりを意味する可能性がある」.

ホーキング、マスク、その他の重要人物。 スティーブ ウォズニアックとノーム チョムスキーは公開書簡に署名し、自律型兵器システムの開発に内在するリスクについて警告し、国連による禁止を求めています。 «人工知能技術は、自律型兵器の開発が、合法ではないにしても事実上、数十年ではなく数年の問題であるレベルに達しました. 自律型兵器は、火薬と核兵器に続く第 XNUMX の兵器革命と言われています。

DeepMind によって開発された洗練された AI は、勝つために攻撃的になる方法を知っているだけでなく、他の人工知能との協力戦略が有用かつ必要であることが判明した場合に認識して実行することも示しています。 「…メッセージは明らかです。私たちは現実の状況でさまざまな AI システムを競合する利益と戦わせており、彼らの目標が何よりも私たち人間に利益をもたらすという最終的な目標とのバランスが取れていない場合、全面戦争が続く可能性があります」. 相互接続された無数のネットワークで構成される人工知能によって決定される膨大な複雑さは、それ自体が、それを管理する人間の能力をはるかに超えていることが証明される可能性のある課題を構成します。

AIの副作用

ただし、ターミネーターのスカイネット スーパーコンピューターのように、スーパーインテリジェンスが戦場で致命的であることが証明されたり、人類に背を向けることを決定したりする前であっても、さらに別の危険が存在します。 少し前に、Musk は、状況や理由で発生する可能性のある、致命的または不快な副作用の可能性についてすでに警告していました。 したがって、スマートデバイスをプログラミングするときは、細心の注意を払う必要があります。 不完全にプログラムされた AI は誇張を込めて Musk 氏は言います。 …あるいは、幸せを最大化するために脳に直接注入されたドーパミンとセロトニンで治療されるべきである. 繰り返しになりますが、インテリジェント システムの複雑さが増し、後者の接続能力とネットワーク能力が高まるほど、その作業の影響を管理および予測することがますます困難になります。

最近、科学者、研究者、起業家の大規模なグループ (現時点では 3441) が、Future of Life Institute の 2017 Asilomar 会議の際に作成された公開書簡に署名しました。倫理的なものであり、人工知能の分野の研究に情報を提供する必要があります。 Asilomar AI Principles は、XNUMX のポイントで、「研究戦略からデータ保護、超知能の可能性を含む将来の問題にまで及びます」。 繰り返しになりますが、目標は、AI の進歩を共通の利益に向け、すべての人類にとって有益な未来を確保することです。 「私は戦争の支持者ではありません。それは非常に危険な可能性があると思います…テクノロジーには大きな可能性があると信じています。今日私たちが持っている能力だけでも、特に有害な状況でどのように使用されるか想像するのは難しくありません。この文書の署名者の XNUMX 人であるスタンフォード大学コンピュータ サイエンス学部の Stefano Ermon 氏は次のように述べています。

アジロマー AI 原則の署名者でもあるスティーブン ホーキングは、昨年 XNUMX 月に「The Guardian」に掲載された明快で心のこもった記事の著者であり、その重要なタイトルは次のとおりです。 有名な天体物理学者は、人類が巨大な社会的および経済的変化にどのように対処しなければならないかを強調しています。 グローバリゼーション、不平等の拡大、富と資源の少数者への集中によって引き起こされる影響は、「技術変革の加速」に追加されます。 それだけでは不十分であるかのように、「気候変動、食糧生産、人口過剰、他の種の減少、伝染病、海洋酸性化など、私たちは驚異的な環境問題に直面しています。」

これらすべての証拠は、警告と差し迫った脅威の両方を構成します。 その結果は誰の目にも明らかです。 私たちは現在、私たちが住んでいる惑星を破壊する技術を持っていますが、それを放棄する可能性はまだ成熟していません。」

したがって、ホーキング博士は次のように結論付けています。 したがって、協力し、協力し、残った人々、さらには後に残る人々の世話をし、不平等を減らし、分割するのではなく団結し、分かち合い、少数の利益のためではなく、共通の利益のために働きます. このシナリオでは、人工知能の進歩が大きな役割を果たします。 不均衡や不平等を悪化させたり、今日私たちが知っている社会を崩壊させたり、対立や相違を和らげたりするのに役立ちます.

歴史から学ぶ

AI の将来について、孫正義の言葉が返ってきます。 正直な意図[善意]に従って使用すれば、より良い生活の仲間になります». ホーキング博士は、すべてにもかかわらず、自信を持っています。 しかし、これらすべては、ロンドンからハーバード、ケンブリッジからハリウッドまで、エリートが過去XNUMX年間の教訓を学ぶ必要があります. まず第一に、彼らにほんの少しの謙虚さを学ばせてください». 過去を振り返ってみると、エリートたちが先見の明で輝いたことはほとんどなく、謙虚さでさえ輝いていませんでした。 しかし、進行中の変化と最終的な絶滅の最終的な潜在的なリスクは、現状から恩恵を受ける少数の人々の利益にもなる方向転換を必要とします. エリートがそれを認識していることは疑いの余地がありませんが、本当の問題は、彼らもそれを深く認識し、確信しているのかということです。 結局のところ、ホーキング自身が悲しげに認めているように、歴史から得た教訓は、怠惰で長居しないように促しています。

レビュー