This page uses an automatic translation system.
While the translation is in effect, clicking "Automatic Translation" returns the display to the original Japanese.
Please note that automatic translation is a mechanical process and may not accurately reflect the intended meaning. Images and charts may also not be translated.
For accurate information, please refer to the Japanese version.
For some articles, an English version translated by our specialized staff is available.
To view it, click "English" in the upper right corner of the screen.
本ページでは自動翻訳システムを使用しています。
翻訳適用中に、「Automatic Translation」をクリックすると元の日本語表示に戻ります。
自動翻訳は機械的に変換を行うため、意図が正確に反映されない場合や、画像・図表が翻訳されない場合があります。あらかじめご了承ください。
正確な情報については日本語表示の状態でご確認ください。
なお、一部の記事については、専門スタッフが翻訳した英語版もご用意していますので、画面右上の「English」をクリックしてご覧ください。
Research Results 研究成果
ポイント
概要
九州大学高等研究院 稲盛フロンティアプログラムの翁岳暄准教授(東北大学学際科学フロンティア研究所(クロスアポイントメント))は、2024年11月にケンブリッジ大学出版局の新書The Cambridge Handbook on the Law, Policy and Regulation for Human-Robot Interactionにて、「Ethical Design and Standardization for Robot Governance」の章を執筆しました。
近年、AIペーシング問題を解決するために、各国や国際機関が標準化アプローチを用いて以下の3つの異なるアプローチを行っています(図参照)。
・タイプA(整合規格):AI規制に関する法律をサポートする補足的な技術規範として使用されるアプローチ
・タイプB(ソフト・ロー):政策指針や道徳原則を拘束力のない柔軟なルールとして適用されるアプローチ。
・タイプC:タイプAとタイプBのハイブリッドアプローチ。AI開発者が責任ある研究とイノベーション(RRI)を実施できるように、重要な倫理的配慮を社会技術的基準に変換することを目的とする。
本章では、技術進歩の急速なスピードに対応できていない立法措置の遅れに起因する、AIペーシング問題について考察しています。重要なAI技術の規制を検討することに加え、人間とロボットの日常的な相互作用に内在する倫理的、法的、社会的影響リスクを利害関係者が確実に管理できるよう、拘束力のない柔軟なAI倫理基準に依拠した規制の枠組みについても論じています。AI倫理基準をヒューマノイドロボットや表現ロボットの開発プロセスに組み込むことで、ロボット開発者は、ロボット規制のために制定された法律に抵触することなく、責任あるイノベーションと研究の原則を盛り込むことができます。本章では、2つのケーススタディを通して、倫理的ロボットデザインのアプローチを探求し、その可能性と限界を検証し、リーガル・ヒューマン・ロボット・インタラクション(L-HRI)の実施におけるコンプライアンス・バイ・デザインの有用性を実証します。
研究者からひとこと
産業界では、メーカーが製品を製造する際の指針となる技術仕様や手順を提供するため際に標準規格が度々用いられます。標準化プロセスは通常2つの方法で行われます。(1)専門機関による一連のルールの押しつけ(USB3.1、IEEE802.11など)、または(2)特定の製品における市場支配の実現(ウィンドウズOSなど)です。しかし、AIガバナンスにおける標準化について語る場合、議論は産業標準のみを限定とした標準ではなく、政策指針、道徳原則、社会技術標準を考慮したより広範なアプローチを取るべきです。本章では、倫理標準化のプロセスがAI規制のペース問題にどのように対処できるかを検討しています。本章では、社会的ロボットに関する倫理的、法的、社会的影響をどのように標準化し、ロボット開発者や製造者が従うことができる具体的な設計要件を開発すべきかについて主に議論しています。
図. ロボットの倫理設計と標準化のための3つの方法論
用語解説
(※1) AIのペーシング問題
技術開発のスピードと、AI対応技術の規制に対する立法措置の遅さとのミスマッチが明らかとなっている問題のことを言う。
(※2) コンプライアンス・バイ・デザイン
法的・倫理的基準をロボットの設計、機能、行動に直接組み込むアプローチ。その目的は、機械が人間のようにハイレベルな法的・倫理的基準を直接に認識処理しなくとも、ロボットが最初から法的要件や倫理基準に準拠するように設計されていることを保証することである。これは、ロボットの行動を誘導するセーフガード、行動制約、技術的手段を組み込むことによって可能になり、許容される法的・倫理的境界の範囲内でロボットが動作することを保証する。
(※3) リーガル・ヒューマン・ロボット・インタラクション(L-HRI)
ロボットの設計、開発、使用のライフサイクルに、法的・倫理的基準の遵守を直接組み込む設計中心のアプローチ。
論文情報
掲載書籍:The Cambridge Handbook on the Law, Policy and Regulation for Human-Robot Interaction Woodrow Barfield, Yueh-Hsuan Weng and Ugo Pagallo (Eds), Cambridge University Press
タイトル:Ethical Design and Standardization for Robot Governance
著者名:Yueh-Hsuan Weng
ISBN:9781009386708
DOI: 10.1017/9781009386708.029
お問い合わせ先