https://frosthead.com

人工知能が私たちをオンにするとどうなりますか?

R2-D2以来、人工知能は大きく進歩しました。 最近では、ほとんどのミレニアル世代はスマートGPSシステムがなければ失われます。 ロボットはすでに戦場を航行しており、ドローンはすぐにAmazonパッケージを私たちの玄関口に届けるでしょう。

Siriは複雑な方程式を解き、ご飯の炊き方を教えてくれます。 彼女は、ユーモアのセンスで質問に答えることさえできることさえ証明しました。

しかし、これらの進歩はすべて、ユーザーがAIに指示を与えることに依存しています。 GPSユニットがドライクリーナーに行きたくないと判断した場合、またはさらに悪いことに、Siriがあなたがいなくても賢くなると判断した場合はどうなりますか?

私たちの最後の発明:人工知能と人間の時代の終わり。 "> 私たちの最終的な発明:人工知能と人間の時代の終わり。 ">"私たちが惑星を超知能機械と共有する前に、私たちはそれらを理解するための科学を発展させなければなりません。 そうでなければ、彼らは支配権を握るでしょう」と著者のジェームズ・バラは彼の新しい本、 「私たちの最終発明:人工知能と人間の時代の終わり 」について語っています。(ジェームズ・バラト提供)

これらは、著者でありドキュメンタリー映画製作者でもあるジェームズ・バラトが、彼の新しい本「 私たちの最終発明:人工知能と人間の時代の終わり」で予測している結果の最高峰です。

間もなく、Barrat氏によると、Siriからドローンやデータマイニングシステムまでの人工知能は、アップグレードを求めて人間に頼るのをやめ、自分で改善を模索し始めます。 サイエンスフィクションのR2-D2やHALとは異なり、私たちの未来のAIは必ずしも友好的ではない、と彼は言います。

一言で言えば、あなたの大きなアイデアを説明できますか?

今世紀、科学者は私たちのものに匹敵する知能を備えた機械を作成します。 しかし、地球を超インテリジェントマシンと共有する前に、それらを理解するための科学を開発する必要があります。 それ以外の場合は、それらが制御します。 いいえ、これは空想科学小説ではありません。

科学者はすでに、チェスの人間よりも優れた機械を作成しました、 Jeopardy! 、ナビゲーション、データマイニング、検索、定理証明、その他無数のタスク。 最終的には、AI研究で人間よりも優れたマシンが作成されます

その時点で、彼らは自分の能力を非常に迅速に改善することができます。 これらの自己改善マシンは、宇宙探査、チェス、または株のピッキングなど、作成された目標を追求します。 成功するためには、エネルギーであろうとお金であろうと、資源を探して消費します。 彼らは、スイッチが切られたり、プラグが抜かれたりするような故障モードを回避しようとします。 要するに、彼らは自己保護やリソース獲得を含むドライブを開発します-私たちのドライブによく似ています。 彼らは、必要なものを手に入れるために物beい、借金、盗み、そしてさらに悪いことをためらいません。

このトピックにどのように興味を持ちましたか?

私はドキュメンタリー映画製作者です。 2000年に、小説と映画の製作に関するTLC映画2001年の宇宙の旅で 、発明者のレイ・カーツワイル、ロボット作家のロドニー・ブルックス、SFの伝説のアーサーC.クラークにインタビューしました インタビューでは、Hal 9000の概念と悪意のあるコンピューターについて調査しました。 Kurzweilの本は、AIの未来を、技術の進歩が人間の理解能力を上回っている熱狂的な「特異点」として描いています。 それでも彼は、人間の知能に匹敵し、それを上回るほど強力なAIから生まれる良いものだけを期待していました。 彼は、私たちが病気や老化を打ち負かすために私たちの体の細胞を再プログラムできると予測しています。 赤血球よりも多くの酸素を届けるナノボットで超耐久性を開発します。 私たちはコンピューターインプラントで脳を過充電して、超インテリジェントになるようにします。 そして、現在の「ウェットウェア」よりも耐久性の高い媒体に頭脳を移植し、必要に応じて永遠に生き続けます。 ブルックスは楽観的で、AIで強化されたロボットは脅威ではなく同盟国であると主張しました。

一方、科学者に転身したクラークは悲観的でした。 彼は、インテリジェンスが勝つと私に言った、そして人間はおそらく超インテリジェントなマシンとの生存のために競うだろう。 彼は、地球をスーパーインテリジェントマシンと共有すると何が起こるかについては明確ではありませんでしたが、私たちが勝てないのは人類の闘争だと感じました。

それは私がAIについて考えたことすべてに反したので、人工知能の専門家にインタビューし始めました。

あなたの考えを裏付ける証拠は何ですか?

高度な人工知能は、核分裂のような二重の使用技術であり、非常に良いまたは大きな害を及ぼす可能性があります。 危害が見え始めたばかりです。

NSAが非常に高度なデータマイニングツールを開発したため、NSAプライバシースキャンダルが発生しました。 エージェンシーはその力を利用して、数百万件の電話とインターネット全体のメタデータ、重要なことにはすべての電子メールを調査しました。 データマイニングAIの力に誘惑された代理店は、憲法を保護することを委任し、代わりに憲法を濫用しました。 責任を持って使用するには強力すぎるツールを開発しました。

今日、完全に自律的なキラードローンと、高度なAIを搭載した戦場ロボットの作成について、別の倫理的な戦いが繰り広げられています。 国防総省と国防総省によって支払われている無人機やロボットメーカー、そしてインテリジェントな殺人マシンを作成するのは無謀で不道徳だと考える人々の間で醸造されています。 自律型ドローンと戦場ロボットを好む人々は、人間のオペレーターよりも道徳的である、つまり感情的ではなく、より的を射て、規律を守ると主張しています。 人間をループから連れ去ることに反対する人々は、無人偵察機の民間人殺害の悲惨な歴史と、法外な暗殺への関与を見ている。 ロボットが殺したとき、誰が道徳的過失を負いますか? ロボットメーカー、ロボットユーザー、または誰もいませんか? 友人に敵を告げるという技術的なハードルを気にしないでください。

長期的には、私の本の専門家が主張するように人間レベルの知能に近づくAIは簡単に制御されません。 残念ながら、超知性は慈悲を意味するものではありません。 MIRI(機械知能研究所)のAI理論家Eliezer Yudkowskyは次のように述べています。「AIはあなたを愛しておらず、嫌いでもありません。しかし、あなたは他の何かに使用できる原子でできています。」機械に組み込まれると、私たちは超インテリジェントなサイコパス、道徳的なコンパスのないクリーチャーを作成し、長い間マスターにはなりません。

あなたの考え方の新しい点は何ですか?

アメリカのコンピューター科学者ビル・ジョイとMIRIと同じくらい多様な個人とグループは、知性が私たち自身を覆すマシンから多くを恐れる必要があると長い間警告してきました。 私たちの最終発明では、AIは人間レベルの知能への開発経路でも悪用されると主張しています。 今日から科学者が人間レベルのインテリジェンスを作成する日までに、AI関連の間違いや犯罪行為が発生します。

なぜこれ以上行われなかったのか、AIが私たちをオンにするのを止めるために何が行われたのか?

理由は1つではなく、多くあります。 一部の専門家は、私たちが人間レベルの人工知能を作成するのに十分に近いとは考えておらず、そのリスクを心配しています。 多くのAIメーカーは、国防高等研究計画局[DARPA]との契約を獲得しており、政治的と見なされる問題を提起したくありません。 正常性バイアスは、人々が災害や災害の発生に反応するのを防ぐ認知バイアスです。これは間違いなくその一部です。 しかし、多くのAIメーカーが何かをしています。 MIRIに助言する科学者をご覧ください。 そして、高度なAIの危険性が主流の対話に入ると、さらに多くのことが関与します。

これが大きいことを知った瞬間を説明できますか?

私たち人間が未来を導くのは、私たちが地球上で最速または最強の生き物だからではなく、私たちが最も賢いからです。 私たちが自分より賢い生き物と地球を共有するとき、彼らは未来を導くでしょう。 この考えを理解したとき、私は私たちの時代の最も重要な質問について書いていると感じました。

すべての大物思想家には、その仕事が彼の発見に不可欠であった前任者がいます。 誰があなたのアイデアを構築するための基礎を与えましたか?

AIリスク分析の基盤は、数学者IJ Good、SF作家のVernor Vinge、およびAI開発者のSteve Omohundroを含む他の人々によって開発されました。 今日、MIRIとオックスフォードのフューチャーオブヒューマニティーインスティテュートは、この問題への取り組みにおいてほぼ単独です。 最終的な発明には、これらの思想家を認める約30ページの巻末注があります。

あなたのアイデアの研究と開発において、何が高い点でしたか? そして、ローポイント?

高いポイントは、 私たちの最終発明、およびAIメーカーや理論家との継続的な対話を書くことでした。 AIをプログラムする人々は、安全性の問題を認識しており、セーフガードの考案を支援したいと考えています。 たとえば、MIRIは「フレンドリーな」AIの作成に取り組んでいます

コンピューター科学者で理論家のSteve Omohundroは、「足場」アプローチを提唱しました。このアプローチでは、安全であると証明できるAIが次世代のAIを構築し、それも安全であることを保証します。 その後、そのAIは同じことを行います。 AIメーカーを集めて、セキュリティに関するアイデアを共有するために官民パートナーシップを作成する必要があると思います。これは、国際原子力機関のようなものですが、企業とのパートナーシップです。 低い点は? 武器を作成するために、最高の最先端のAIテクノロジーが使用されることを認識してください。 そして、それらの武器は最終的には私たちに背を向けます。

あなたの議論に反論しようとする可能性が最も高いのは何人ですか? どうして?

発明者のレイ・カーツワイルは、先端技術の主任謝罪者です。 彼との2回のインタビューで、彼は認知機能の強化を通じてAIテクノロジーと融合すると主張しました。 Kurzweilと広くトランスヒューマニストや特異主義者と呼ばれる人々は、AIと最終的に人工の一般知能を超えて進化すると考えています。 たとえば、コンピューターインプラントは、脳の速度と全体的な能力を向上させます。 最終的には、知性と意識をコンピューターに転送する技術を開発します。 それから、超知能は少なくとも部分的に人間になり、理論的には超知能が「安全」であることを保証します。

多くの理由で、私はこの観点のファンではありません。 問題は、私たち人間は確実に安全ではないということです。そして、超知的な人間がどちらかとなる可能性は低いようです。 人間の知性が向上した後、人間の倫理がどうなるかはわかりません。 機械にはない攻撃性の生物学的基盤があります。 スーパーインテリジェンスは、攻撃力の乗数になる可能性が非常に高くなります。

このアイデアの影響を最も受けるのは誰ですか?

地球上の誰もが、スーパーインテリジェントマシンの規制されていない開発を恐れています。 インテリジェンスレースは現在進行中です。 AGIの達成は、Google、IBM、およびVicarious and Deep Thoughtのような多くの小規模企業、およびDARPA、NSA、および海外の政府と企業にとって、最も重要な仕事です。 そのレースの主な動機は利益です。 考えられる目標の1つを想像してください。コンピューターの価格で仮想の人間の脳を。 それは歴史上最も収益性の高い商品になるでしょう。 医薬品開発、癌研究、武器開発などに24時間年中無休で取り組んでいる何千もの博士課程の質の高い脳の銀行を想像してください。 誰がその技術を買いたくないでしょうか?

一方、56か国が戦場ロボットを開発しており、それらを自律的に駆動することが目的です。 それらは人間が監視することなく殺す機械になります。 貧困国は、自律型ドローンと戦場ロボットによって最も傷つくでしょう。 当初は、豊かな国だけが自律的な殺害ボットを買う余裕があるので、豊かな国は貧しい国からの人間の兵士に対してこれらの武器を振るいます。

私たちが知っているように、それはどのように人生を変えるでしょうか?

想像してみてください。わずか10年で、6数の企業や国が、人間の知能に匹敵するか、それを上回るコンピューターを使用しています。 それらのコンピューターがスマートコンピューターのプログラミングの専門家になると、どうなるか想像してみてください。 すぐに私たちは、私たちよりも数千から数百倍もインテリジェントなマシンで地球を共有するでしょう。 そして、その間、この技術の各世代は兵器化されます。 規制されていない、それは壊滅的です。

未回答の質問はありますか?

ソリューション。 明らかな解決策は、人間の生命と財産を大切にする道徳的な感覚を機械に与えることです。 しかし、倫理を機械にプログラミングすることは非常に難しいことがわかりました。 道徳的規範は文化によって異なり、時間とともに変化し、文脈的です。 私たち人間が人生の始まりに同意できない場合、どうすれば生命を守るように機械に伝えることができますか? 安全なりたいのかそれとも自由になりたいのか? 私たちは一日中議論することができ、コンセンサスに達することはできません。

また、前述したように、AI開発者をまとめる必要があります。 1970年代に、組換えDNA研究者は研究を中断し、カリフォルニア州パシフィックグローブのアシロマでの会議に集まることを決めました。 彼らは、進行中の遺伝子研究で環境を汚染することを恐れて、「靴のDNAを追跡しない」などの基本的な安全プロトコルを開発しました。 「アシロマガイドライン」のため、世界は遺伝子組み換え作物の恩恵を受けており、遺伝子治療は有望に見えます。 私たちが知る限り、事故は回避されました。 AIのAsilomarカンファレンスの時間です

何が邪魔ですか?

巨大な経済風が高度なAIの開発を推進コンピュータの価格で人間レベルのインテリジェンスは歴史上最もホットな商品になります。 GoogleとIBMは、彼らの秘密を一般の人々や競合他社と共有したくないでしょう。 国防総省は、研究室を中国とイスラエルに開放したくはありません。 国民の意識は、安全性を確保するために設計された開放性と官民パートナーシップに向けて政策を推進する必要があります。

次は何ですか?

私はドキュメンタリー映画製作者なので、もちろん、 私たちの最終発明の映画版について考えています。

人工知能が私たちをオンにするとどうなりますか?