驚くべき頻度で、学校での銃撃は依然として混乱を招く恐怖です。
銃のアクセスを制限することから武装した教師に至るまでの提案で、それらを止める方法についてのコンセンサスがほとんどないだけでなく、学生が彼のクラスメートに発砲する理由についてはさらに不確実性があります。
現在、一部の科学者は、人工知能(AI)が答えを見つけるのに役立つかどうかを調査し始めています。 アルゴリズムは、学校の射撃に関連するデータをよりよく分析し、おそらく学校の暴力を予見する可能性のある学生の言語や行動のパターンを特定することさえできるという考えです。 研究はまだ初期段階にあり、学校の射手になる可能性のある人を予測するためにマシンを使用する見通しは、特にプロセスには子供が関与するため、あらゆる種類のプロファイリングに関連するプライバシーの問題やその他の倫理的問題を提起します しかし、目標は、インテリジェントマシンの分析力が、高い感情と政治的なレトリックの渦巻きで頻繁に消費される悲劇をより明確にすることができるかどうかを確認することです。
技術に目を向ける
シュレヤ・ナラパティは、学校での銃撃のように科学的分析を計り知れないほどのものにする方法として人工知能を使用することを非常に魅力的でした。 彼女はコロラド州の高校を卒業したばかりですが、フロリダ州パークランドで17人の学生が射殺された2月に、学生リーダーのエマ・ゴンザレスに刺激を受けて行動を起こしました。
「考えやお悔やみを投稿するだけではいけないと感じました」とNallapatiは言います。 「ミレニアル世代の新世代として、私たちが最もよく知っているもの、つまりテクノロジーを使用しようとするべきだと思いました。」
そこで、高校で人工知能を研究しているNallapatiは、National Center for Women&Information Technologyが運営するAspirations in Computingというプログラムを通じて、彼女が知っている他の若い女性に手を差し伸べました。 コンピューティングへの願望は、若い女性がコンピューティングと技術分野に参入することを奨励しています。
Nallapatiは、グループの他のメンバーに新しいプロジェクト#NeverAgainTechに参加するように依頼しました。 彼女は、共同の努力により、過去の射手に関する人口統計学的および社会経済的情報から、薬物使用または神経障害のあらゆる履歴まで、学校での射撃に関連する幅広いデータのAI主導の編集および分析がもたらされることを期待しています攻撃が発生した州での銃の入手可能性。 目標は、学校射撃の多くの構成要素の現在の存在よりも包括的な内訳を開発し、結果のソフトウェアを来年、特に学校や法執行機関に公開することです。
リスクの評価
シンシナティ小児病院医療センターの研究者チームは、AIを使用して学校の暴力に対処するために別のアプローチを取っています。 機械学習は、セラピストやカウンセラーが学生が提示するリスクのレベルを見極めるのに役立つ可能性があることを示唆する最近の研究を発表しました。
具体的には、科学者は、12歳から18歳までの119人の子供へのインタビューに基づいて、AIが暴力的な行動のリスクを評価することになると、子供と思春期の精神科医のチームと同じくらい正確であることを発見しました攻撃性、主任研究者のドリュー・バーズマンは、学校の射撃リスクの評価にも適用可能であると述べています。
「通常、学校での暴力が発生する前に警告標識があります」と彼は言います。 特に、インタビューで学生が使用する言語は、リスクの高いティーンエイジャーとリスクの低いティーンエイジャーを区別するのに役立ちます、とBarzmanが行った以前の研究によると。 その研究は、前者が自分自身や他者の行為について否定的な感情を表現する可能性が高いと結論付けました。 彼はまた、自分自身と暴力的なビデオゲームや映画に関わる暴力行為について話す可能性が高かった。
チームは、AIアルゴリズムが以前の研究の結果を使用して、新しい研究のためにインタビューした学生の成績証明書を分析することにより、別のステップを踏み出しました。 言語パターンに基づいて、人が暴力を振るうリスクが高いか低いかを示しました。 時間の91%以上、アルゴリズムは、トランスクリプツのみを使用して、両親や学校からの情報にもアクセスできる子供と思春期の精神科医のチームのより広範な評価と一致しました。
この研究の学生は、主に精神科外来クリニック、入院病棟および救急部門から採用されました。 最近、大きな行動の変化を示した人もいましたが、他の人にとっては、その変化はより軽微なものでした。 Barzmanによると、彼らはさまざまな学校に通っていましたが、ホームスクーリングはしていませんでした。
Barzmanによると、この研究は学校での身体的攻撃の予測に焦点を当てていましたが、機械学習が実際に暴力を防ぐことができるかどうかはまだわかっていません。 この時点での焦点は、セラピストとカウンセラーに、インタビューに基づいた学生の評価を明確にするツールを提供することです。 意図は、機械に学生についての決定をさせることではない、とバーツマンは述べています。
「基本的には、臨床医の意思決定を支援することを目的としています」とBarzman氏は言います。 「私たちは重要な質問であることがわかったものの構造を彼らに提供するでしょう。学生にインタビューし、正しい情報を選び、すべてを覚えることは難しい場合があります。アイデアは彼らに役立つツールを提供することですプロセスを経て、評価の精度を高めます。」
マティー・スクォーゾーニは、学校の暴力に対処する際の人工知能の可能性を信じているもう一人の人です。 彼はSitch AIと呼ばれるカリフォルニアのスタートアップのCEOであり、学校がそのような脅威に対処するのを助けることができると彼が言う技術を売り込むことを計画している。 最初の焦点は、警察官が銃声の正確な位置を検出できるようにするセンサーのシステムの開発にあり、学校での射手の動きを追跡することにもなります。 しかし、Squarzoni氏によると、同社は予測分析を使用して、潜在的な問題が暴力的になる前にそれを見つける方法も検討しているという。
彼は、人工知能が学生のデータを分析し、彼または彼女のパフォーマンスまたは行動の顕著な変化にフラグを立てることができると信じています。 Squarzoniは、プライバシーに関する潜在的な懸念を認めていますが、会社は学生の身元を知らないと言います。
「プロファイルの作成について話しているのではありません」と彼は言います。 「私たちはそれぞれの人をユニークな存在として見ています。 しかし、人間は習慣の生き物です。 彼らが不規則性を持ち始めるとき、それはあなたがそれらを見始めるときです。 旗を見つけたら、旗がどんどん近づいてきます。 メンタルヘルスの問題かもしれませんし、成績が落ちているかもしれません。
「「この人はシューターになる」と言うことができるとは考えていません。 「この人は助けが必要だ」と言いたいです。」
そんなに早くない?
しかし、ソフトウェアアルゴリズムを使用して複雑な社会問題に対処するラッシュについて深刻な懸念を抱いている人もいます。
「現在、AIが非常にデリケートなドメインに驚くべき速度で適用される傾向が見られます。これらのアルゴリズムを作成する人は、使用しているデータの社会的、政治的側面をすべて理解しているとは限りません」とRashida Richardson氏は言います、人工知能の社会的意味を研究するニューヨーク大学のプログラム、AI Now Instituteの政策研究部長。
AIの使用に火がついた1つの領域は、予測ポリシングとして知られているものです。 これらは、犯罪統計を分析し、犯罪が発生する可能性が高い場所を予測するソフトウェア製品です。 しかし、批評家は、逮捕などのデータは人間の偏見の結果である可能性があり、最終的にアルゴリズムに組み込まれる可能性があると指摘しています。
これは常に予測分析のリスクであり、データのソースが実際にどの程度客観的であるかを決定する重要な要因である理由です。 ただし、シンシナティ小児病院の研究者によって開発されているAIツールでは、分析は、統計の広範な編集ではなく、個々の学生がインタビュー中に言ったことに基づいています。
それでも、リチャードソンは、この種のソフトウェアを作成するチームが「学際的」であることが重要であると考えています。そのため、たとえば教育者は、学生の行動を評価するプログラムに関与します。
「研究者は、教育および法的政策の世界の人々が学校環境と呼ぶものの多くのニュアンスを理解していない可能性があります。 それには安全性と行動の問題が含まれます」と彼女は言います。 「あなたがいる学校の種類は、行動がどのように扱われ、規律がどのように扱われるかをしばしば指示します。
「たとえば、チャータースクールには、はるかに厳しい懲戒方針があることがわかっています」とリチャードソンは付け加えます。 「そのような環境の子どもたちは、ハイエンドの私立学校や、公立学校のさまざまな環境とはまったく異なる方法で扱われます。
「無数の入力がある非常に複雑な問題を理解しようとし、そのわずかな部分を反映する技術ソリューションを適用することは、社会で見られる同じ問題を繰り返すか、そこにない問題の解決策を作成できるため、問題です。 」
リチャードソンは、別の懸念は、AIプログラムが最善の意図で開発されたとしても、その作成者が予期しない方法で使用される可能性があるということです。
「これらのツールを思いついたら、それがどのように実装されているか、それが社会全体にどのように影響を与え続けるかを引き続き管理できるわけではない」と彼女は言います。