ページの本文へ

Hitachi
お問い合わせお問い合わせ
株式会社 日立システムズ

専門家コラム:グローバル最新AI事情

【第1回】責任あるAI

概要

AIにはとてつもなく大きな可能性がありますが、最近の企業経営者たちは責任を議題にすることにメリットがあると考えています。現在のAIにはグローバルな問題を解決する能力があります。変化の激しいグローバルな課題への取り組みは、まさに、計り知れないAIの可能性を生かすチャンスであると言えます。私たちは、AIとデータの管理が5年後、10年後に影響を及ぼすという点を認識しておく必要があります。

AI(人工知能)には多くの効果が期待されています。政府によるいち早い対策の実行から、多くの人々に開かれた街づくり、企業の競争力強化まで、その分野はさまざまです。経済学者たちは、AIの革新性により2030年までに世界のGDPが15兆米ドル以上増加すると予測しています。 

各国の政府は、社会や経済におけるAIの可能性を認識したうえで、この技術の効果を最大限に生かしつつ、潜在的な課題に対応する方法を模索しています。潜在的な課題とは、例えば、職業の変化、データプライバシーに関する問題、データの誤使用、サイバーセキュリティなどであり、これらには責任ある政策対応が求められています。社会がAIの最大限の可能性を活用しようとするのであれば、AIの革新技術の倫理的な開発や使用については、政府が中心となって法規制や社会的課題を検討していかなければなりません。

現在、この新たに生まれた技術は各企業やいくつかの業界そのものを変革しつつあります。人工知能は、労働者に大きな力を授け、病気の治療や、さらに遠い宇宙への探索などにも貢献しています。AIのおかげで、人々は、これまではあり得なかった速度と正確さをもって作業を実行できるようになり、その分、お客さまやパートナーに向けた、より有意義な仕事に注力できるようになっています。

現在の私たちは、自らの目的に向かう中でも、革新的な技術やソリューションが将来の世代に変化をもたらすものであることを忘れてはいけません。現在のところ、イノベーションによる資産はデジタル化や次のイノベーションに使われています。より大きなイノベーションを可能にするには、実証された技術や製品が広く普及して、世界の優秀な人材を確保することが必要です。しかし、イノベーションがこうした新しい段階へと進むためには、私たちが責任を持ってそれを行うことが大前提となります。不平等や性別差は社会的格差を生みます。企業経営者たちには、あまねく広がる成長をめざしてAI技術の開発や使用に努めることが求められます。

責任あるAIは、実際には、適切な利益を生むビジネスです。  AIはビジネスに大きなチャンスと成果をもたらしますが、それは、その開発が、倫理的で、公平に、信頼できる方法で、人間を中心として行われた場合に限られます。 責任あるAIの使用を議論するために、包括的で一貫した原則と共通言語を持ち、AIの統制方針が地域間や国家間でばらばらになることは避けなければなりません。 

AIが責任を持って実装されていれば、緊急通報の電話に応えるのは人間と機械のどちらが良いかといった、人々の心の中に生まれる疑問は払拭されていくでしょう。

私たちが企業経営者たちにAIの新しい可能性の活用を期待するときは、同時に、彼らにその活用方法に責任を持つことを促す必要もあります。ビジネスの結果が目に見えて分かりやすいのと同じように、AIからの出力も、AIへの接し方を学ぶようになるにつれて私たちに分かるようになってきます。結局のところ、問題の解決やより良い社会の構築には、AI技術そのものではなく、その技術をどのように使用するかが重要になります。AIが人間よりも良い応答を速く返し、的確な決定を行えるようになる日はもう既に来ています。

AIに関する懸念と課題

公平さを欠く、偏ったAI

AIに不公平さや偏りがありませんか。AIはデータから学習します。そのデータは実世界を代表するものでなくてはなりません。企業は、AIモデルを公平なものとするため、データやアルゴリズムに偏りがないかを確認する能力を持ち、モデルが行う決定に何が影響するのかを理解している必要があります。

AIや、そのアルゴリズムを作った人間の中に偏りが見えると、それは不信を生みます。バークレーの大学の研究では、マイノリティの住宅所有者に高い金利を課したAIシステムが存在したことが分かっています。  これは危険です。差別の責任が使用しているAIシステムにあったとしても、消費者がAIを訴えることはありません。消費者の法的手段の対象となるのは人間です。また、使用しているAIが消費者を不公平に評価すると、そのAIは市場について誤った認識を持つことになり、そうなれば企業は市場のシェアを失うこともあり得ます。

PWCの調査によると、AIに取り組む企業の34%が、取り組みへの大きな脅威として新しい法的リスクや風評被害のリスクを挙げています。また、ピュー(Pew)の調査では、コンピュータープログラムが常に偏っていると思っている米国人消費者は58%に上ることが示されています。

説明可能なAI

AIは説明可能ですか。AIはどのようにその結果にたどり着いたのかについてほとんど情報を示しません。これは、アルゴリズムの大部分が人間の理解を超えているためです。AIシステムは、説明可能で、証明可能で、透明性があるように作られなくてはなりません。そうでなければ、人間のユーザーはそのAIの決定を理解することも信頼することもできません。

AIは、一流のデータ科学者でなければ理解できないようなアルゴリズムをいくつも使って何百万ものデータポイントを処理し、ミリ秒単位で回答を導き出します。企業内の専門家たちは、こんなに速くて複雑なAIをどのように制御したら良いのだろうかという疑問をしばしば口にします。PWCの調査によると、複雑すぎて説明や制御ができないAIが最も大きな脅威になると考えている割合は33%に上ります。

信頼

AIへの信頼を築き、顧客にとっての価値を創出する

例えば、生死に関わる医療上の意思決定についてアドバイスをするAIには非常に大きな信頼が必要とされます。一方、新製品の購入やピザの注文をお勧めしてくれるAIにはそこまでの信頼は必要ないかもしれません。多くのAIシステムが、顧客が求める信頼性や説明可能性に合わせて構築されるようになってきています。 

安全で堅牢なAI

AIは安全で堅牢ですか。どんなにすばらしいAIシステムでも永遠に動き続けることはできません。ほかの技術と同じように、サイバー攻撃の対象となり、侵入されれば速度が低下したり、だまされたりする可能性があります。継続的な安全対策が必要であり、攻撃への防御とパフォーマンス監視の2つを怠ることはできません。

統制

AIは適切に統制されていますか。企業は、会計や業務プロセスの監査と同じように、自社のAIシステムを監査できなければなりません。現在のAIは密室で開発保守されているため、検査や評価の実施には混乱や戸惑いが伴うこともあるでしょう。企業全体としての説明責任が求められています。

倫理

AIは、合法的、倫理的、道徳的ですか。各企業は、その使命と社会的責任に基づいてAIを使用しなければなりません。また、この技術が従業員や顧客に与える影響を評価する機能も必要です。規制の範囲内で運用することも求められます。

責任あるAIの目的

  • AIは人間のすばらしい精神から考え出され、作られている。そして精神に影響を与えるという重要な点を忘れてはならない。
  • 顧客やパートナーに提供するAIプラットフォームおよびAI製品に十分な責任を持つ。 
  • 世界中の社会的改革プロジェクトの力となり、世界をより良くすることのみにAIを使用する。
  • データやAIの操作において人々が自身のデータが安全で、権利が守られていると安心できる未来をめざす。
  • より公平で、公正で、平等であるように世界を変えていくことに、AIとしてできることの責任を担う。 
  • 運輸、金融、製造、農業、エネルギー、医療のトップ企業がビジネスのROIの増大をめざしてAIソリューションを導入したときに、価値創造の大きな波を起こす。 

一般的な責任ある社会的原則のガイドライン

AIプラットフォームやAIソリューションは、次のような特性を前提とし、常にこうした特性を持ち続けることが求められます。

  • 企業や社会にプラスの成果や影響をもたらす。
  • 人間の知性や技能を補強し、拡大する。
  • 自己学習手法によって、企業、従業員、利害関係者、投資家、そして社会など全体に影響を与える。 
  • すべての製品やソリューションにおいて、人間の体験と基本的価値観を考慮する。 
  • プライバシーとデータに関する人間の権利を守ることを前提に責任を持って設計、開発、導入される。 
  • 顧客のデータが機械モデルの学習にどのように使われているのかを開示し、法規制に従って必要であれば、個人や企業を対象から除外できるようにする。
  • 透明性を確保し、説明責任を果たし、信頼されるように常に努める。
  • 学習データにおける、性的中立性、データ比率のバランス、多様性に責任を持つ。 

責任あるAIに向けての動き

公平で、安定し、信頼されるAIシステムを開発するにはどのような対策が必要でしょうか。

責任あるAIフレームワークを構築する際に考慮すべき主な点を以下にまとめます。AIの偏りを少なくする、ネットやプライバシーの脅威への対策を強化して信頼性を高める、自社の経済的メリットだけでなく、従業員、顧客、地域社会にもメリットをもたらす、こうしたことの実現が可能です。

  • 企業内での責任ある社会的原則の策定  
  • 偏りへの対処とその検証
  • 人材の多様性 
  • 教育 
  • 情報格差
  • データの完全性
  • セキュリティの強化
  • 説明責任
  • データイノベーションに関する健全な政策
  • 効果的なモデルの作成
  • 倫理的なシステムの作成
  • 統制と規制の改善
  • 国家的AI戦略 
  • 労働者の能力開発
  • 感情分析の使用 
  • 説明可能なAI 

透明性 ― 説明可能なAI

AIは「ブラックボックス」であると言われることもあります。このように言われるのは、入力と出力の関係が明確でないことが多く、内部の動きの理解が難しいことが原因です。ブラックボックスには、プログラムのコードと結果のトランザクションが乖離する危険性があり、ブラックボックスであることは、資産管理者にも顧客にも、透明性がないという認識を与えてしまう可能性があります。また、隠れた意思決定層を含む複雑なAIトランザクションでは、どのように決定が行われたのかを管理者は規制当局に対して説明することができません。モデル化プロセスにおける透明性と説明可能性の確保は、責任あるAIフレームワークの鍵です。

説明可能なAIは、どのように結論にたどり着き、どのように判断を下したのかを説明できます。また、次にどのような行動を取る可能性が高いのかを人間に説明することも可能です。人間がAIのプロセスをさらに深く知りたいと思う場合、人間がその調査を行うことができると同時に、AIが自身を説明できることが必要です。これが可能であれば、ハッカーやプライバシーの脅威への対策は容易になります。AIがどのように判断を下すのかが分かれば、その判断における偏りを最小限に抑えることは簡単になり、AIが公平に機能していることを、規制当局、消費者、経営陣、従業員に証明することも可能になります。

バンク・オブ・アメリカなどの大手金融サービス企業は、偏りを少なくし、不正行為やマネーローンダリングを防止するために説明可能なAIに投資しています。米国の国防総省国防高等研究計画局も説明可能なAIを活用しています。陸軍は、AIがミサイル発射などの判断を下す理由を人間が完全に理解できない限り、AI搭載ミサイルの配備は行わないでしょう。最高の信頼を得るためには、AIシステムが、モデルの説明可能性を保証し、応答や行動の根拠を示すことが必要です。

偏りへの対処とその検証

AIの使用目的は複雑な問題を速く正確に処理することだけではありません。意思決定プロセスにおいて人間の偏った考えの影響を少なくするためにも使われます。例えば、雇用に関するAIツールは、組織内にある偏った考えを排除し、雇用するかどうかを、組織が求める能力と候補者が持つ能力を比較して決定することができます。

このような雇用ツールに、性別や民族による人事における好みなどの人間の偏った考えが組み込まれると、雇用プロセスでは意図していなかった偏りがAIによって助長される結果になります。AIを使った医薬品開発では、その医薬品が試用段階に入ったときに、いくつかの民族グループには適用されていないことが発覚したことがあります。この場合も、悪意ではなく、気付かない偏りがあったことが原因でした。

AIの出力にエラーが多くなる最も大きな原因は、アルゴリズムに入力されるデータが不完全であったり不正確であったりすることです。どの業界のリスクマネージャーも、元データが不完全であったり、気付かないうちに偏った情報が含まれていたりするために、AIが想定外の偏りを持ってしまうことに大きな不安を抱いています。データの完全性を保証し、想定外の偏りやエラーが発生するリスクを軽減するには、AIのデータ、モデル、人間の使用方法に対して厳格な検証プロセスと制御を徹底する必要があります。

こうしたプロセスの責任は人間にあります。AI技術に偏りをプログラムしてしまったら、将来のAIの成功や普及は決して実現されません。AIの開発では、あらゆる段階で、偏りを意識し、アルゴリズムを精査し、出力を検証することが大切です。

データの完全性

データの完全性はAIシステムの中心であり、顧客との信頼の基礎となるものです。消費者は機械に対して人間よりも正確であることを期待しています。しかし、あらゆる機械の知能は人間が行った入力から作られています。データがどのように識別され、収集され、保守され、そしてシステムに統合されるのかを人間が厳しく管理していなければ、AIシステムが期待どおりの正確性を提供することは不可能です。

データの完全性の確保に必要な最初のステップは、データに効果的なキュレーションを行うことです。キュレーションの処理には、データごとに最も正当で信頼できる取得元を特定すること、アクセスしやすく、また不明確なものを排除するようにデータを構造化することが含まれます。次のステップとして、情報を常に最新に保ち続けるため、強固な知識管理体制を整える必要があります。さらに、データに影響を与えるすべての事象を考慮する必要もあります。世界的イベントから、規制の改正、個々の顧客に関することまで、それぞれの事象を適切に考慮します。最後に、AIシステムにフィードバックループを組み込みます。システムがエンドユーザーとどのようにやり取りしたのかを技術者が分かるようにし、AIシステムが提供した回答が正確だったかどうかをエンドユーザーがフィードバックできるようにします。

エンドユーザーは、回答そのものだけでなく、その回答の根拠を求めることがよくあります。例えば、取り引きを望む顧客の要求が拒否された場合、その顧客は拒否の理由を知りたいと思うのが普通です。システムが取り引きを不正だと判断した場合は、そのように判断した根拠を示すことが必要です。AIシステムがその応答や行動の裏付けとなった根拠を提供できれば、AIシステムに対するユーザーの信頼は高くなります。また、提供された根拠が正当であるかどうかをユーザーがフィードバックとして返すことも可能です。

AIソリューションは、時間の経過とともに判断の方法が改善され、データの処理方法が変わっていくようにプログラムされています。こうしたプロセスを考えると、AIの判断はそのときの入力に対してのみ適切であるということになります。最初に得られる結果より、そのあと得られる結果の方が精度が高くなる傾向があります。しかし、最初の結果のあと、データがなかったり不足していたりすると、時間が経過しても期待どおりの改善が行われない可能性があります。AIの効果は、良質なデータを十分に利用できるかどうかにかかっています。

説明責任

プログラムが複雑になればなるほど、プログラムから結果への直接的な道筋をたどるのは難しくなります。しかし、コンプライアンス上の理由から、ファンドはAIの決定に対して十分な制御を実施し、その実施を証明することが必要です。米国の証券取引に関する法規制下では、顧客からの指示をファンドが適切に実行していることを示すために、こうした制御の実施とその証明が重要になってきます。さらに、EUの一般データ保護規則(GDPR)では、どのようなデータが収集され、具体的にどのようにデータが使われているのかをファンドが顧客に説明する必要があります。この規則は、自動化されたソリューションがどのように機能するのかについての説明も求めています。ファンドは、AIの判断がその組織の目的に沿ったものであることを保証するために、AIの判断を追跡管理できなくてはなりません。この追跡管理には、検証から、承認、学習、監視、保守まで、AIソリューションのすべての段階を文書化することが含まれます。

人材の多様化

AIの学問の世界でも人材の多様化が必要であり、それが実現されればビジネスの世界にも多様な人材が入ってくるようになります。

AI技術に偏りをプログラムすることで結果的に社会的不平等の拡大に協力してしまうようなことを避けるため、企業経営者たちも多様な人材の確保に努める必要があります。

AI人材の多様性の欠如と、機械学習の結果に生じるゆがみには、明らかな相関関係があります。技術分野は依然として男性社会であり、AI分野でトップの地位に占める女性の割合はわずか18%と推測されています。

企業経営者は、社内や各チーム内の男女比が適切であるようにし、スキル、経験、学歴の異なる人、また社会、文化、職業についての考えが異なる人がバランスよく混在する集団を作るようにします。AI開発のいずれの段階でも、こうした多様な人材の混在が不可欠です。

責任ある使用

AIシステムは、ある程度の自己分析ができるように構築します。そうすることにより、適切または正確に扱うことができないタスクにシステムが乱用されるのを防ぐことができます。この方法の1つとして、システムが要求に応答するときにシステム自身で常にその自信度に点数を付けるアルゴリズムを組み込んでおく方法があります。自信度の点数により、AIシステムがユーザーにエラーの多い情報を返すことを防止できます。複雑な質問や曖昧な質問の場合は自信度の点数が低くなります。これは、その質問は人間が対応した方が良いことを示しています。

効果的で責任あるAIを実現するには、顧客のデータを慎重に保護することも必要です。機械に学習の仕方を教えるのは人間です。そして、どのシステムも、その基となったデータ以上に賢くなることはありません。優れたAIシステムの作成において、その中心的役割を担うのは、当然ながら、常に人間であり、その責任も人間にあります。これは今後も変わりません。

統制、リスク、規制

AI技術は汎用的なツールであり、用途によりその出力はさまざまですが、そうした技術の規制が求められています。規制はイノベーションの促進にも抑制にも働く可能性があります。また、小規模なスタートアップ企業よりも大企業を優先する場合があります。業界主導の努力もされていますが、AI市場を規制する国際的に合意された信頼あるルールはまだありません。

技術の進歩の速度に合わせて、企業統制を行う側も認識を深め、技術に後れを取らないようにすることが求められています。説明責任を果たせるように透明性を高め、品質の向上を実現するには、AIの効果的な運用モデルや運用プロセスを設計することが大切です。規制当局は、ファンドに対して、強力で実効性のある統制や制御を実施することを期待しています。例えば、AIの用途ごとに、関係するリスクを、特定、評価、制御、監視できるリスク管理体制の構築などが期待されています。リスク管理という点では、AIによりリスクのライフサイクルが加速したり、リスク選好度に影響を及ぼしたりする可能性もあります。

エラー

AIの進歩のスピードを考えると、エラーが多くなる可能性は否定できません。AIは入力から学習するように作られているため、プログラムの実行の初期に発生するエラーはそのまま大きな問題に発展することも考えられます。更新はできるだけスムーズに行われなければなりませんが、その後のトランザクションや現在保留中のもの、さらには完了済みのものへのリスクは最小限にする必要があります。AIの更新時には不具合やバグが発生する可能性があり、以前のデータのアクセスや使用に問題が発生することもあります。ファンドでは、誤ったロジックや論拠を文書化したり特定したりするためのプロセスや手順を、その修正方法と共に定めておく必要があります。

セキュリティとプライバシー保護

AIへの依存度が高くなると、セキュリティに新たなぜい弱性が生まれてくる可能性があります。ファンドでは、適切な手順を定めて、厳格なチェック、継続的な監視、検証、敵対的テストなどを実施する必要があります。AIシステムへのアクセスを適切な人に制限することは、データの改ざんや悪用の防止に役立ちます。

現在は、AIなどのデジタル技術が世界的経済に大きく関わるようになってきているため、それに伴い大きくなっているセキュリティやプライバシーのリスクに対して常に細心の対策を取ることが求められます。政府の政策は、セキュリティを強化し、十分な情報を持った消費者の選択を尊重するものでなくてはなりませんが、同時に、個々の目的に合わせて価値ある製品やサービスを提供する機能を損なうようなものであってはなりません。 企業内でのAIを取り入れた監視は、セキュリティ強化の一方で、過度な監視機能や人種差別の助長につながることがないようバランスを図る必要があります。

データに関する健全な政策

AIの世界では、データが通貨となります。消費者などの多くの人々は、データと引き換えに便利さや安価なサービスを手に入れます。Facebook、Google、Amazon、Netflixなどは、こうしたデータを処理して決定を行うことにより、人々のいいねの数、表示される広告、購入の意思、さらには誰に投票するかまでに影響を及ぼします。人々が利用するものや目にするものすべてが、ごく一部の世界的上流層にコントロールされることによる影響を懸念する声が聞かれることもあります。また、もっと大きな影響として、中小企業や新興の市場にとっては、そうした上流層のデータプールがあまりに高価すぎて競争にならないという現状もあります。AIの利用が非常に重要である理由はここにあります。AIはその強みを活用できるだけでなく、独占的な状態が生まれるのを防ぐことができます。

さらに大きなメリットをめざしてAIを促進するのであれば、データに関する健全な政策が不可欠です。例えば、データが国境を越えて自由に移動できるようにする、政府のデータへのオープンなアクセスを促進する、ビジネスデータに新しい利権が作られないようにするなどの政策が必要です。さらに、競争政策は先の見通しが立てられるものでなくてはならず、特定のテクノロジーに依存しないように実施される必要があります。

保険

AIソリューションによるリスクに、適切な保険を使って対応しようとする企業が増えています。需要の拡大に伴い新しい商品が作られていますが、保険会社は、時にAIをリスクとみなすことがあります。 AIそのものがリスクとみなされることに加えて、AIが存在する場合には、既に認識されていたリスクについてもその分析方法が変わってきます。これは保険会社の分析でもファンドなどの分析でも同じです。

AIソリューションを検討するファンドは増えていますが、AIが既存のリスクにどのように影響するのか、また法規制に関してどのような新しいリスクを生むことになるのかを慎重に考える必要があります。規制当局には、AIの利用方法を厳しく監視し、AIを悪用する企業に対しては積極的に実行措置を取ることが期待されます。ファンドは、責任あるAIフレームワークを構築することによって、法規制要件を満たしつつ、コスト効率良く高品質なサービスを顧客に提供することが可能になります。

感情分析

最悪なケースとして考えられるのは、感情分析を使うようになった政府が、社会にとっての価値という観点で国民を評価し、その評価結果に応じて各国民が受け取れるサービスなどを決定するといった状況です。これは、明らかにAIと個人データの悪用です。もう少し一般的なところでは、偏りの内在が関係する例があります。偏りはどうしても存在するため、AIに対して強い倫理観が求められ、企業は必ず矛盾への対策を取ることが必要になります。黒人の顔を認識しない顔認識ソフトウェアの例はよく知られています。これは、悪意を持ってそうしたのではなく、単純に、多様性の欠如が、解決が必要になるほどの問題になるという認識がソフトウェアの作成チームになく、そうしたことへの配慮が欠けていたというだけです。作成チームは倫理規定に署名し、規定に従って作業を実施すべきでした。民族性検出アルゴリズムは、人の画像を正確に読み取り、民族的背景を判断することを約束しています。 AIアルゴリズムが人種差別をするように意図して作られているとしたら、そのときは強制力のある規制を求めなければなりません。そうしたアルゴリズムが根を下ろす前に完全に排除する必要があります。

国家的AI戦略

大規模な多国籍企業や各国の政府は、競争相手よりも多くのAI人材を確保するため、長期的な戦略を実施しています。こうした戦略の一環として世界中のAI人材を引きつけるAIハブがいくつか形成されています。中でも、中国、米国、英国は、多くの人がめざす目的地となっています。一方で、それらとは別に、まったくの利他的な目的から、良い人材を育て、新しい可能性のある応用方法を見つけようとする戦略もあります。さらには、人材をコントロールするため、競争相手となる企業や国への移動を制限するケースもあります。中国は目標達成のために50年計画を策定しています。英国政府は、世界的なトップクラスの技術ブランドを招いてAIイノベーションセンターを開設し、10億ドル以上をAIに投資しています。英国、米国、カナダの3か国はいずれも技術ビザを設けて世界中の優秀な人材の入国を奨励しています。

労働者の能力開発

技術の使用が増え、技術への需要が増すにつれて、新しい種類の仕事が登場するようになってきています。経済社会のどのような分野でもスキルセットの進化は求められます。AIなどの新生技術の使用に伴い、雇用環境の変化は以前にも増して顕著になっています。将来の仕事に向けて次世代への準備を進める政策や、現在の労働者が新しい仕事環境にスムーズに移行できるようにするための政策が必要です。こうした政策の考案と実施には、政府、民間企業、そして学界や市民社会がそれぞれに大きな役割を担うことになります。

エンドユーザーの知識向上

どの業界であってもAIの目的の中心は、ユーザーを支援し、ユーザーが最適に作業を行えるようにすることです。問題を効率的に解決できるようにしたり、より良い手法を導入したりすることにより、ユーザーが各目的に合わせて効果的に考え、行動できるようにします。 モルガン・スタンレーでは、ファイナンシャルアドバイザーが顧客と良好な関係を築けるようにするための支援を行っています。この支援の一環として、AIを導入し時間のかかる手動作業を自動化しました。作業の自動化により、支店スタッフの作業を効率化し、ファイナンシャルアドバイザーが自分の時間を顧客との関係構築のために使うことができるようにしています。

倫理的なシステムの作成

倫理の問題を避けて通ることはできません。データの悪用例や、意図的であれ偶発的なものであれAIアルゴリズムに偏りが生じている事例は数多くあり、こうした事例を踏まえて基準や規制を求める声は大きくなっています。AI科学者は、自分たちの発見がどのように使用され得るのか、またその発見や動作がいかに悪用されやすいのかを検討する責任があります。医薬業界には、害を及ぼさないという倫理基準があり、最善の方法、研究、創薬をめざして国際的に合意された規制があります。これと同様に、AI業界も各政府と協力して、悪質なAI手法への対策を講じ、AIが世の中のためになる力としてのみ使用されるようにする必要があります。

生涯学習と教育

AIを使用して教育を拡充したり、自動化したりすることにより、人間の創造性や思考力を伸ばすことができます。

企業では、AI技術に必須の能力を習得するための生涯学習プログラムを従業員に提供することが重要です。また学界では、教師と学生の両者を結び付け、AIへの包括的な取り組みが最初からカリキュラムに組み込まれるようにすることが重要です。 将来のAI思想家やリーダーとなる人材を教育することも大切です。まだ少数しか存在しないAI人材を多く育てるための道筋を作り、AIは世の中のためになることに使用するという基本原則を教えます。企業経営者は、こうした課題をサポートし、次世代のAIリーダーに教育を施すことにより、多くの人材が早く育つことに期待を寄せています。

情報格差

認識技術から利益を生むことは、情報を持つ者と持たない者の間の格差を大きくしません。

* コラムは筆者の個人的見解であり、日立システムズの公式見解を示すものではありません。

メールマガジン

最新のイベント情報、商品情報など、お役立ち情報をご紹介するメールマガジンをお送りしております。

メールマガジン登録

  • 日立システムズFacebook 公式アカウント

データセンター紹介ページへ

データセンター紹介
ゆるぎない信頼のパートナー 日立のデータセンター

日立システムズの
Microsoftソリューション
Microsoftとの力強い協力体制で、お客さまのソリューションを支えます。

日立システムズは、システムのコンサルティングから構築、導入、運用、そして保守まで、ITライフサイクルの全領域をカバーした真のワンストップサービスを提供します。