生成AIが世界中で注目を集める様になりました。
これまでとは比較にならないほど、様々なタスクをAIに任せることが可能となり、様々な応用が期待されています。
しかしながら技術の進歩というのは、同時に新しい問題も生み出すものです。これは避けようがないことです。
生成AIにおいても間違いなくそうなるでしょう。そして、もう既にそれは始まっていると言えます。
重要なのは、そうした課題やリスクをしっかりと知っておくことです。生成AIを学ぶ上で、これは非常に重要なことです。
そうすることで、どういった形が社会にとって望ましいのか、常に考えていくことができるからです。
ここでは、生成AIがもたらす様々な問題や課題を、詳しく見ていきたいと思います。
えっ本人じゃん!Audibleでは人気声優が原作のナレーションを担当!
自動車、テレビ、コンピュータ、インターネット、スマートフォン、ソーシャルメディア。
新しい技術が登場する度に、利便性が大きく向上する一方で、様々な弊害も生み出されてきました。
パラダイムシフトと言える様な大きな変化が起こるときには、様々な問題や混乱も同時に生まれるものなのです。
重要なのは、そうした課題や問題をきちんと把握しておくことです。
それでは、生成AIがもたらす様々な課題を見ていきましょう。
生成AIの利用において、著作権の侵害はとても大きな問題となっています。
多くのアーティストやクリエイター、また団体や企業が、生成AIによるコンテンツに対して懸念の声を上げています。
まず著作権に対する世界共通の認識として、「著作権は人間によってつくられた作品でなければ認められない」というのが基本的な考え方です。
そのため「AIがつくりだした作品に著作権はない」というのが今のところ一般的な結論です。
なのでAIが自動生成したコンテンツは、原則として著作権が認めらません。
これが現状における、AIの生成したコンテンツに関する基本的な考え方になります。
しかしながら、生成AIを巡る事態はそう単純ではありません。
そもそも人間がつくったのか、AIによる生成なのか、その判別が極めて困難です。実際のところ、非常にグレーゾーンが多いのが現状です。
画像生成AIはデータを確保するために、インターネット上から何十億もの画像を読み込んで学習しています。
しかし、その画像の大半は著作権で保護されており、同意も得ていません。アーティストやクリエイターが、自身の著作物をAI生成のデータセットに無許可で使用されるという状況が起きています。
著作権のあるコンテンツでも、AIは勝手に学習データとして読み込むことができるのです。そして画風やタッチが非常に似たものを、出力できる様になります。
つまり、無許可で自分の作品を使われている様なものです。しかし、この事態に対する歯止めはかかっていません。
一体なぜ、こうした著作権の問題が起きているのでしょうか?
これは、AIによる生成物の著作権に関する法的ルールが、未確立であるためだと言えます。
大体以下の様な点がポイントです。
AIの進化のスピードが急速すぎるため、人間社会全体がその変化にまだ対応できていないのです。
そのため、現行の著作権法では対応しきれないケースが生じています。
日本においても、イラストレーターや音楽家など、クリエイターたちが著作権が侵害されるとの懸念を強めています。
「クリエイターとAIの未来を考える会」は2023年4月、東京都内で記者会見を開き、AIの生成による創作活動への悪影響などを訴えました。
この様に、AI生成に関する法整備やガイドラインの策定などが、早急に求められています。
今後そうした議論が、活発に行われていくのは間違いないでしょう。
生成AIというテクノロジーが、公正公平に使用される様に、環境を整備していくことが重要です。
生成AIの進化によって、現実と見紛う様なクオリティの、合成画像をつくり出せる様になりました。
しかし同時に、その技術が悪用される問題も発生しており議論を読んでいます。
そして、その代表的なものが、ディープフェイクです。
ディープフェイクとは、生成AIを利用してつくられた、偽物の写真や動画などのことを指します。人工知能を利用した、高品質の合成写真や動画のことだと言えます。
ディープフェイクの悪用によって懸念されることは、下記の様な点になります。
具体的な例を挙げると、偽情報やフェイクニュースの生成、他人の顔を無許可で使用したポルノの作成、また偽造の映像や音声を用いた詐欺などの問題が挙げられます。
生成AIの技術はその高度な性能ゆえに、悪用された際の危険性も大きいものです。
2022年3月に、ウクライナのゼレンスキー大統領が、国民にロシアへの投降を呼びかけるディープフェイクの偽動画が出回りました。FacebookとYouTubeに、何者かによって投稿されたものです。
このときは、動画が確認された直後にゼレンスキー大統領本人がこれを否定し、大きな問題にはなりませんでした。
しかしながら、このようなディープフェイクの拡散は年々と増えており、偽造のレベルも上がってきています。画像や動画だけでなく、音声のフェイクも可能です。
そのためディープフェイクなどに対しては、コンテンツの偽造を判別できる技術の開発が重要となっています。研究機関やIT企業を中心として、検出技術の開発が進められています。
さらなる罰則や規制、取り締まりの強化なども必要でしょう。
また情報セキュリティ教育の中で、ディープフェイクはじめ生成AIの持つリスクを教えていくことも重要でしょう。
生成AIは、正確性に欠ける情報を提示したり、間違った情報を生成したりすることもあります。
間違ったデータで学習している場合、また学習していないことを質問された場合などは、正しい答えを出せません。
そうした際に人々を誤解させたり、誤った情報に基づいた行動を促すことにつながります。これにより、社会に深刻な影響を与える可能性があります。
例えば、SNS上で拡散される偽情報は、人々の判断を誤らせ、社会的な不安や混乱を引き起こす可能性があります。
また、偽情報が政治的な問題や世論形成に影響を与えることもあります。
生成AIであっても間違えることはあり、その情報は確実に正しいとは限らない。それを常に踏まえておくべきです。
また生成AIには、情報漏洩のリスクもあります。
生成AIが個人データなどの情報を学習してしまった場合に、プライバシーの侵害や情報漏洩などの懸念が指摘されています。
なので生成AIを利用する際には、個人情報や機密情報などの入力には注意しましょう。
ChatGPTをはじめとした生成AIは、すでに社会を変化させ始めています。
そして、生成AIの急速な発展に伴い、様々な課題も生まれています。
そのため、生成AIに関する適切な規制を設けていくことが必要です。法整備やガイドラインの策定が、早急に求められています。
これは特定の人々や特定の国における問題ではなく、人間社会全体の問題です。生成AIという技術は、すでに誰にとっても他人事ではないのです。
AIシステムが適切に監視され、透明性が確保されるような仕組みが必要だと考えられます。また、AIに関する教育や指導も、さらに充実させていくべきでしょう。
あらゆる問題において言えますが、万能の解決策などはありません。
なので状況に応じて調整できる柔軟な規制と、常により良い形を模索していく態勢が求められます。