ディープフェイク(Deepfake)

ディープフェイクテクノロジーの種類

フェイス・スワッピング・ディープフェイクは、動画や画像において、ある個人の顔を別の個人の顔に置き換えるという、最も一般的な形態である。オーディオ・ディープフェイクでは、録音された個人の声が別の人物の声に置き換えられ、欺瞞的な音声効果が生み出される。テキスト・ディープフェイクは、特定の人物の文体を模倣した文章コンテンツを生成し、あたかもその人物が書いたかのように見せかけることに重点を置いています。

ディープフェイクの仕組み

ディープフェイク技術は、ディープラーニング・アルゴリズムを使用している。つまり、広範なデータ入力が可能な場合、このテクノロジーは問題を解決するためにそれらを教えることができる。ユーザーは、顔を入れ替えることでオリジナルの動画を再現し、視聴者にオリジナルだと思わせることができる。それでは、GAN(Generative Adversarial Network)として知られるディープフェイクの代表的な手法について詳しく説明しよう。

GAN(生成的敵対ネットワーク)として知られる計算手順は、実際の情報を模倣できる2つのニューラルネットワークを使用する。これらのネットワークは互いに「敵対」している。ジェネレーターと呼ばれる1つ目のネットワークは、新しいデータを作成する。識別器と呼ばれる2番目のネットワークは、真正性検証器として機能し、ジェネレーターによって生成されたデータが元のデータセットの一部であるかどうかを判断する。その役割は、本物のデータと偽物のデータを区別することである。この2つのネットワーク間の協調プロセスにより、本物のデータと見間違えるほど説得力のある出力が得られる。

GANは画像、動画、音声の生成に役立つ。GANはディープフェイクの生成に使われるデバイスだ。しかし、GANは偽データを本物と見紛うことができるのだから恐ろしい。印象的な出力を生み出しながら、機械の形をとることができるのだ。

エドモンド・ベラミーの肖像』というタイトルのアルゴリズムを使って作品が作られた。3人のフランス人学生(25歳)は、Obviousというアート集団を開発した。

Generative Adversarial Network(GAN)アルゴリズムは、2つのコンポーネントで構成されている。ひとつはジェネレーターと呼ばれるもので、膨大な肖像画のデータベースを用いて画像を作成する。例えば、「エドモンド・ベラミーの肖像」は、15,000枚の歴史的肖像画をシステムに投入して生成された。

Obviousと呼ばれるアルゴリズムによって作成されたエドモンド・ベラミーの肖像画

2つ目のコンポーネントである識別器は、人間が作成した画像とAIが作成した画像を区別する役割を担っている。驚くべきことに、ベラミの肖像画は、識別器をうまく騙して人間が作ったと思わせることに成功した肖像画のひとつである。この肖像画は、架空のベラミー一家を表現した11のAI支援肖像画シリーズの一部であり、すべてこの技術を利用して集団が制作したものである。

ディープフェイク技術の応用

ディープフェイクAI技術は、極端な変化を自動化する役割を担っている。この技術は、創造的自由を促進しながらメディアファイルを開発することができる。にもかかわらず、Deepfakeの応用にはプラスもマイナスもある。まずはプラス面を見てみよう。

自律と表現

Deepfakeテクノロジーは、独裁政権の人権活動家やジャーナリストが、身元を守りながら不正を匿名で報告することを可能にする。また、障害者を含む個人がデジタルアバターを通じてオンラインで自己表現することを可能にし、自己表現とデジタル統合の新たな機会を提供する。

アクセスの容易さ

人工知能(AGI)を使用することで、より正確な聴覚、視覚、推論のためのツールを作成することができる。ユーザーは、AIが生成した合成メディアを使用することで、自分のエージェンシーを増強することもできる。AIベースのツールは、解決策をアクセシブルにし、より賢く、手頃な価格で、パーソナライズされたアクセシビリティ・ツールを作る自立性をユーザーに与えることができる。

学習と知識開発

教師は、子供たちに魅力的な授業を提供するためにDeepfakeを利用することができる。このAI技術は、伝統的なビジュアル形式を超えたレッスンを支援する。AIが生成した合成メディアは、教室で歴史上の人物に命を吹き込むことができる。再演の合成ビデオや音声は、改善や学習全体に大きな影響を与えることができる。

アート

Deepfakeは、高価なVFX技術を民主化すると同時に、ストーリーテラーのための強力なツールとなった。このテクノロジーは、エンターテインメント業界におけるチャンスを開くことができる。多くのYouTuber、コンテンツクリエイター、インフルエンサーが、AIが生成した合成メディアを最大限に活用している。それどころか、ゲーム業界もこれを使ってグラフィックや画像を強化することができる。企業は、1つのメッセージを異なる言語で使用することで、合成音声を利用することができる。

ディープフェイクの危険な応用

Deepfake技術から大きな利益を得ることができる。しかし、企業やクリエイターが使用すればするほど、危険性が高まります。Deepfakeファイルは、プロパガンダや偽の情報を広めたり、評判を傷つけたりする可能性があります。以下は、その一般的な危険性です。

偽の情報

偽のニュースや情報は、今日でも大衆を欺くために使用されています。政治姿勢やビジネス、社会活動を混乱させることもある。このテクノロジーは、実際には発言していないことを発言している人物を描いた偽のビデオを作成することで、人々の心に疑念を植え付けることができる。ニュースチャンネル業界は、プロパガンダや偽情報の拡散で先行している。

企業/個人の金銭的利益を引き出す

ディープフェイク技術を使えば、メディアファイルを改ざんし、CEOのような個人が虚偽の宣言をしているように見えるシナリオを捏造することが可能だ。このような操作の結果、経営幹部が実際には発言していないことを発表するビデオを映し出すことができる。この機能は、攻撃者が企業を脅迫するためにこのような偽装ビデオを作成し、報道機関やソーシャルメディア・プラットフォームに配信すると脅迫するなど、悪用される可能性への扉を開くものです。

フェイク動画

初期のディープフェイク技術を使って、トランプ大統領の代わりにタイ人俳優を起用したディープフェイク動画が作られた。この加工された動画はソーシャルメディアで大きな反響を呼び、広く注目を集めた。その後のバイラル動画では、最初の動画に登場した女優が大統領の描写は本物だと主張する一方、大統領本人はこの主張に反論している。

トランプ大統領の偽映像作成にDeepFakeを使用

詐欺

ディープフェイクに基づく手口は、詐欺師の間で一般的な攻撃方法となっている。従業員を騙してお金を振り込ませるための偽の電子メールに頼る代わりに、詐欺師たちは電話を使うようになった。この電話では、会社のCFOやCEOのような説得力のある声を操り、従業員をより効果的に説得する。

ディープフェイク技術は「大量混乱兵器」か?

人工知能の急速な進歩は、その将来的な制御が不確かなまま、比喩的なフランケンシュタインを生み出した。この成長は、AIを通じて生成された「フェイク・ピープル」を、情報発信の支配的人物として位置づける可能性がある。デジタルアバターによる偽情報の拡散は、効果的に対抗することが困難であり、社会構造に永続的な被害をもたらす可能性がある。

プーチンのデジタル複製がキエフへの核攻撃を予告し、世界中にパニックと混乱を引き起こすという仮想シナリオが証明しているように、欺瞞的なビデオの普及が進んでいることが懸念される。このシナリオは、AIが生成した誤報の潜在的な深刻さを強調している。

結論

人工知能によるディープフェイク・テクノロジーは、私たちの生活にポジティブな影響を与える素晴らしい機会を提示している。エンパワーメントのためのツールとして、芸術、表現、公共の安全、アクセシビリティ、ビジネスなど、さまざまな領域にわたって声と目的を与え、制限に関係なくすべての人に新たな可能性を提供する。しかし、合成メディアへのアクセシビリティの向上は、評判を傷つけ、証拠を捏造し、民主主義制度に対する国民の信頼を損なうなど、悪用されるリスクも高めている。継続的な進歩と強固な法的枠組みの導入により、ディープフェイクは非常に有益なテクノロジーになることが期待されています。