HomeテクノロジーAI が生死に関わる決定を下すべきではない理由

AI が生死に関わる決定を下すべきではない理由


「博士」としても知られるフィリップ・ニチケを紹介させてください。 死」または「自殺幇助のイーロン・マスク」。

Nitschke には興味深い目標があります。彼は死を「非医療化」し、テクノロジーによって自殺幇助を可能な限り補助なしで行いたいと考えています。 同僚のウィル・ヘブンとして レポート、ニチケはサルコと呼ばれる棺サイズの機械を開発しました。 人生を終わらせようとしている人々は、アルゴリズムに基づく精神医学的自己評価を受けた後、マシンに入ることができます。 彼らが通過すると、Sarco は窒素ガスを放出し、数分で窒息死させます。 死ぬことを選んだ人は、次の 3 つの質問に答えなければなりません。あなたは誰ですか? どこにいるの? そして、そのボタンを押すと何が起こるか知っていますか?

自殺幇助が合法であるスイスでは、安楽死の候補者は、通常、精神科医によって評価される精神的能力を示さなければなりません。 しかし、ニチケは人々を方程式から完全に解放したいと考えています。

ニチケは極端な例です。 しかし、Will が書いているように、AI は、ますます多くのヘルスケア分野で患者のトリアージと治療にすでに使用されています。 アルゴリズムは、ますます重要なケアの一部になりつつあり、アルゴリズムの役割が道徳的な決定ではなく、医学的な決定に限定されるようにする必要があります。

生死に関わる決定を下すのに役立つ AI を開発する取り組みの厄介な道徳を探ります。 ここ.

とてつもなく不安に思うのは私だけではないだろう 人が生きるか死ぬかをアルゴリズムに決定させることについて。 ニチケの作品は 古典的なケース アルゴリズムの機能に対する見当違いの信頼。 彼は、おそらく「偏りのない」「客観的な」意思決定を行うことができるテクノロジーを導入することにより、複雑な人間の判断を回避しようとしています。

それは危険な道であり、それがどこにつながるかはわかっています。 AI システムは、それを構築した人間を反映しており、偏見に満ちています。 黒人を認識せず、黒人としてラベル付けする顔認識システムを見てきました。 犯罪者 また ゴリラ. オランダの税務当局 アルゴリズムを使用した 福利厚生詐欺を排除しようとして、罪のない人々、主に低所得の人々や少数民族のメンバーに罰を与えるだけです。 これは、破産、離婚、自殺、子供の養育など、何千人もの人々に壊滅的な結果をもたらしました。

AI がヘルスケアで展開され、最も重要な決定の一部を下すのに役立つ これらのシステムがどのように構築されているかを批判的に調べることは、これまで以上に重要です。 偏りのない完璧なアルゴリズムを作成できたとしても、アルゴリズムには、人間や社会について独自に決定を下すためのニュアンスや複雑さが欠けています。 私たちは、意思決定のどの程度を AI に委ねたいのかを慎重に検討する必要があります。 それを私たちの生活や社会にますます深く浸透させることについて、避けられないことは何もありません。 それは人間が下した選択です。

関連記事

最も人気のある

最近のコメント