はじめに
私たちは日常生活の中で何気なく声を使ってコミュニケーションをしています。対面や電話、ビデオ会議に限らず、SNSの音声投稿やライブ配信など、声がメインとなる場面はますます増えています。しかし近年、AI技術の進歩によって「ディープフェイク」や「音声合成ソフト」を用いて他人の声を模倣・改変することが容易になり、その悪用が社会問題化しつつあります。
声を勝手に使われないように保護しようという考え方はいくつか提唱されており、代表的な用語としては「肖声権」「人声権」「声のパブリシティ権」などが挙げられます。いずれも、人間の声に対する権利を指している点は共通していますが、法律上はまだ明確に統一された名称や規定があるわけではありません。本記事では、これらの用語の背景や意味合いについてわかりやすく整理し、「声の権利」がなぜ注目されているのかを解説します。
1. 「肖声権」「人声権」「声のパブリシティ権」とは?
1-1. それぞれの用語の由来
肖声権
「肖像権(顔や姿を保護する権利)」を連想させる言葉であり、これを「声」に置き換えた形で作られた造語です。見た目と同様に「声」も個人を特定できる重要な要素と捉え、保護すべき人格権として位置づける発想から生まれています。人声権
「人(の)声の権利」という表現で、より直接的に「人の声を守る権利」という意図を強調した呼び方です。海外の文献等で「Right of Human Voice」という表現が見られる場合もあり、人格的側面と経済的側面をともに包括しようという考えが色濃く反映されています。声のパブリシティ権
有名人の名前や肖像に“財産的価値”が認められる権利を「パブリシティ権」といいますが、これを「声」にも当てはめることで、経済的利益の観点から保護するアプローチです。声優や歌手など「声」そのものが商品価値を持つ職業の方々への無断利用を念頭に置いた議論で使われることが多いといえます。
1-2. 用語が分かれている現状
実のところ、これらの用語はいずれも公式に定義された法律用語というわけではありません。研究者や弁護士、メディアなどが多角的に取り上げる中で、まだ呼び方も固定されていない状況です。
しかし、どの呼称が使われたとしても、本質的には「個人の声を無断で録音・合成・公開・商用利用されないように守る」ために必要となる考え方だといえます。
2. なぜ今「声の権利」が注目されているのか
2-1. ディープフェイク技術の脅威
AI技術が急速に進化し、わずかな声のサンプルからでも高度な音声合成が可能になっています。たとえば、本人が言っていないセリフをあたかも本人が発したかのように生成してしまうディープフェイクは、SNSなどで拡散されると虚偽情報の流布や名誉毀損などにつながりかねません。
実際、有名政治家や芸能人の偽音声を用いた詐欺や中傷行為の例は、海外を中心に報道され始めています。こうした問題を放置すると社会的影響が大きいため、声に対する権利保護が急務と認識されているのです。
2-2. 音声配信サービスやSNSの普及
YouTubeやTikTokなど動画プラットフォームだけでなく、ClubhouseやTwitterスペースなど、音声を主としたコミュニティや配信アプリが人気を博しています。個人が手軽に「声」を発信できる時代だからこそ、勝手に録音・二次利用されるリスクも高まっています。
一般人であっても何らかの音声が拡散され、その合成音声が作成されてしまう危険性がゼロとは言い切れません。プライバシー保護の観点からも、声の取り扱いには注意が必要です。
2-3. クリエイターや声優の権利保護
歌手や声優、ナレーターなどの職業では、声そのものが大きな経済的価値を持ちます。もし無断でAI合成された声が広告や動画に使用されれば、営業上の損害やイメージダウンが発生するかもしれません。既存の著作権や肖像権のみでは十分にカバーしきれないケースがあり、現行法の隙間を埋める権利として「肖声権」「人声権」「声のパブリシティ権」が注目されています。
3. 法律的な位置づけと課題
ここでは、「肖声権」「人声権」「声のパブリシティ権」などの呼称を含む“声の権利”が、現行の法制度や判例のなかでどのように位置づけられているのか、そしてどのような課題があるのかを、約5,000字にわたって詳しく解説します。まだ社会に広く定着しているとは言いがたいこれらの権利について理解を深めることで、今後の実務や立法論の方向性を考えるヒントにしていただければと思います。
3-1. 既存の保護法制との関係
(1)人格権・プライバシー権とのかかわり
日本では、憲法や民法が直接的に「声」そのものを保護する条文を設けているわけではありません。しかし、「声」もまた個人の同一性を示す重要な要素であり、ときには深刻なプライバシー侵害につながり得るものであることは容易に想像できます。
そこで注目されるのが、人格権やプライバシー権の一般的な枠組みです。判例上、肖像権が人格権の一内容と認められてきたのと同様に、「声」についても人格権の一つとして保護を及ぼす余地があるという考え方が有力です。つまり、無断で音声を録音・公開される行為や、AI技術を使って本人が発していない言葉を“捏造”される行為は、名誉感情の侵害や私生活の平穏の乱しとして違法性が問われる可能性がある、ということです。
ただし、声に対する保護は肖像権と比べると社会的認知度が低く、実際の裁判例でどこまで侵害が認められるかは必ずしも明らかではありません。特に、公共の場における発言や記者会見、もともとネット上に公開されていた音声を二次利用する行為などは、表現の自由や報道の自由との兼ね合いで判断が分かれる場合もあり、議論の整理が十分になされていないのが現状です。
(2)パブリシティ権との関係
パブリシティ権とは、有名人などが持つ財産的価値を含んだ人格権の一要素で、名前や肖像、キャラクターなどを無断で宣伝や営利目的に利用されない権利を指します。日本の判例でも、プロ野球選手や芸能人の氏名・肖像を無断で商品に利用する行為に対して、不法行為が成立すると認められた例があります。
声も同様に、著名な声優や歌手、アナウンサーなど「声によって名声や経済的価値を得ている人」の場合、パブリシティ権の一部として声を守ろうとする考え方が浮上します。すなわち、「声のパブリシティ権」として、無断で声をサンプリングして広告に使用したり、AIで合成した歌声を勝手に商業利用したりする行為を差し止め、損害賠償を請求する根拠にできるかどうかが検討されるわけです。
とはいえ、日本国内ではパブリシティ権そのものが判例法上の概念として発展してきたにとどまり、法文に明文化されているわけではありません。また、有名人でない一般の人が同じような被害を受けた場合に、どの程度パブリシティ権という枠組みで救済され得るのかは未確定の部分が多く、実務上は人格権侵害やプライバシー権侵害として主張するほうが現実的な手段となっています。
(3)著作権・著作隣接権とのすみ分け
声に関する保護を考えるとき、著作権や著作隣接権との関係もよく議論に上ります。たとえば、歌手がステージで歌った歌唱や、声優が演じたセリフなどは、音源そのものが著作隣接権(実演家の権利)によって保護される場合があります。しかし、あらゆる「声」や「話し方」までが広く著作物として認められるわけではなく、日常的な会話や個々の発話の断片が当然に著作権の対象になるとは限りません。
こうした法的保護の枠組みに収まりきらない領域を埋める概念として、「肖声権」や「人声権」といった新たな呼称が注目されています。著作権ではカバーしにくい“素の声”や“人格的な要素”をめぐる問題を解決する上で、こうした総合的な権利が求められているというわけです。
3-2. 判例の動向と蓄積の不足
(1)肖像権との類推適用
日本の裁判所が「声の権利」に直接言及した最高裁判例はまだないのが実情です。もっとも、肖像権に関する判例には、「人の容貌・姿態等をみだりに撮影されたり公表されたりしない自由は、個人の人格的利益として保護されるべき」という趣旨の判断が示されています。
この考え方を拡張すれば、「人が自らの声をみだりに録音・公開・改変されない自由もまた、同様に人格的利益として守られるべきだ」という推論が可能です。
(2)パブリシティ権をめぐる主張
また、芸能人やスポーツ選手などの声を無断利用したケースで、パブリシティ権が問題となることがあります。たとえば、有名声優の声を模倣した合成音声を使って企業広告を作成した場合、本人のイメージや営業上の利益が毀損される可能性が高いでしょう。しかし、まだ日本では「声のみ」を理由に不法行為が認められた判例の蓄積が乏しく、請求が認められるとしても間接的に人格権やパブリシティ権を援用する形をとらざるを得ないのが実態です。
(3)議論と立法論の展望
このように、声にまつわる権利をめぐる裁判例はまだ十分に蓄積されていないため、実際に問題が起きた場合に法的手段で救済が得られるかどうか、判決の見通しが立てにくい現状があります。一方で、AIによるディープフェイク技術の普及やSNSの拡大により、声の無断利用や悪用に関するトラブルは確実に増えていくと見込まれます。したがって、将来的には新たな判例や立法措置が生まれ、裁判所の判断が集積していくことで「声の権利」の輪郭がさらに明確化されることが期待されています。
3-3. 海外における事例と比較
(1)アメリカにおける“Right of Publicity”
アメリカでは、Right of Publicity(パブリシティ権)の概念が比較的認知されており、有名人の声や決め台詞、話し方までが保護対象と認められるケースがあります。たとえば著名歌手の声を酷似させた広告に対して、本人が「自分のパブリシティ権の侵害だ」として訴え、損害賠償が認められた例も報告されています。
もっとも、アメリカの各州によって法律の内容や判例の蓄積に差があるため、一概に「アメリカでは声の権利がしっかり守られている」とは言えません。また、創作の自由や表現の自由の観点から、「有名人の声真似は必ずしも違法ではない」という判決が下される場合もあります。
(2)欧州における人格権・プライバシー保護
ヨーロッパの一部の国々では、GDPR(EU一般データ保護規則)の施行などによって個人データ保護の意識が高まり、音声データも個人情報として取り扱われる傾向が強まっています。これにより、音声の無断収集や合成がプライバシーや個人データ保護の観点で問題視されるケースは増えていますが、「声の権利」を明確に定義した法律が存在するわけではありません。
むしろ、人権やプライバシーを広義に解釈する中で、声の利用が違法・不当と判断されるかどうかをケースバイケースで検討している段階と言えるでしょう。
(3)日本への示唆
アメリカや欧州では、日本よりも「パブリシティ権」「プライバシー権」に関する議論が成熟している側面があります。その議論を輸入する形で、日本においても今後「肖声権」「人声権」「声のパブリシティ権」といった概念がさらに法整備や判例上で確立される可能性があります。しかし、それぞれの国の文化や法律構造、表現の自由に関する考え方は異なるため、海外のルールをそのまま当てはめることには慎重な検討が必要です。
3-4. 主な課題と将来へのアプローチ
(1)法整備・判例による明確化の必要性
大きな課題としては、法整備や判例の充実が追いついていないことが挙げられます。現行法の枠組みの中でも、人格権やパブリシティ権を駆使してある程度は対処できる部分はあるものの、例えばディープフェイク音声が社会に深刻な混乱をもたらす事案に対処するためには、より直接的なルールづくりが望まれます。
今後、国会や有識者会議などで新たな法律の制定や既存法の改正が検討される可能性があり、そこで「声」を巡る権利をどう扱うかが大きな論点になるかもしれません。また、実際に声の無断使用による被害を受けた原告が裁判を提起し、裁判所が“声を保護すべき法的利益”として認める判決を重ねることで、実務の指針が定まっていく余地もあるでしょう。
(2)表現の自由との調和
一方で、声を包括的に保護しすぎると、表現の自由や技術革新が損なわれる懸念が指摘されています。たとえば、声真似芸やパロディ作品が日本のお笑い文化として定着していることを考えれば、「本人の声に似ている」というだけですべて違法とされるのは行き過ぎでしょう。また、研究目的で音声合成を利用する場合や、著名人の声を模擬することで社会的意義のある作品を生み出す場合も存在します。
こうした“創作や娯楽の幅”を守りつつ、悪質ななりすましや誹謗中傷、商用無断利用を取り締まるためには、法の適用範囲や手続を細かく設計する必要があります。現実には、技術の進歩に法整備が後れを取りがちな面もあり、継続的な見直しと慎重なバランス調整が求められるでしょう。
(3)プラットフォーム責任と自主規制
ディープフェイク音声や無断録音が拡散されやすいのは、SNSや動画配信サイトなどのオンラインプラットフォームです。そのため、これらプラットフォーム事業者の対応や利用規約の整備が不十分であれば、被害が一気に広がる恐れがあります。
今後は、プラットフォームごとに「他者の声の無断利用を禁止する」あるいは「音声が合成である場合は明示を義務づける」といった自主ルールを設け、違反が疑われる投稿やアカウントを速やかに停止・削除できる仕組みを強化する動きが予想されます。こうした自主規制の取り組みは、法整備と併せて大きな効果をもたらす可能性がありますが、企業側に過度な負担を課すことにもつながりうるため、実務的な調整が欠かせません。
(4)個々の契約・同意の重要性
声優や歌手、ナレーターなど「声」を商業的に活用する職業の方々は、契約によって権利を明確に保護する手段をとることが増えています。たとえば「収録音声を二次利用する場合には事前に同意が必要」などの条項を設けることで、無断合成や別用途での転用を抑止するわけです。
一般ユーザーであっても、自分が音声を配信する際には利用規約を確認し、プライバシー設定を十分に考慮するなど、自衛の策をとることが求められます。最終的には、自分の声をどう扱ってほしいかを明示し、そのルールに違反した場合に法的対応が取れる状況を整えておくことが理想的です。
3-5. まとめ
以上のとおり、日本では「肖声権」や「人声権」「声のパブリシティ権」といった呼称で声を保護する考え方が徐々に提唱されている一方、これらの権利が明確に法律に位置づけられているわけではありません。人格権、プライバシー権、パブリシティ権などの既存の枠組みを援用する形で、裁判所が個々の事案ごとに判断を下すことになるのが実情です。
しかし、AIによるディープフェイク技術の進化やSNSの普及を背景に、声の無断利用や悪用をめぐるトラブルは増加傾向にあると考えられます。判例の蓄積が少ない現段階では被害者が救済を求めにくい状況も指摘されており、今後は法整備や判例の充実、そしてプラットフォームによる自主的なガイドラインの整備が不可欠となるでしょう。
さらに、声を手厚く保護しながらも、芸術やエンターテインメント、研究における「声の利活用」を阻害しないバランスの取り方が極めて重要です。技術の発展に法が追いつくためには時間がかかりますが、社会全体で問題意識を共有し、立法や司法、プラットフォーム運営の各方面が協力してルールを成熟させていくことが期待されます。私たち自身も、ネット上に声を投稿する際のリスクや、他人の声を取り扱う際の注意点を再認識し、より安全で自由なコミュニケーション環境を守っていく必要があるといえるでしょう。
4. AIと「声の権利」の具体的リスク
4-1. ディープフェイク詐欺
「息子を装って電話をかけ、家族にお金を振り込ませる」といった詐欺行為は古くから存在しますが、AI合成によってより本物そっくりな声が作られてしまうと、被害は拡大する可能性があります。高齢者だけでなく、あらゆる世代がターゲットになる恐れがあるため、防犯意識を高める必要があります。
4-2. 誹謗中傷・なりすまし
SNS上で本人になりすまして誹謗中傷的な発言を投稿する場合、テキストだけでなく音声や動画で「本人らしさ」を演出されると、被害者が反証するのが難しくなるリスクがあります。こうしたケースで声の利用を差し止めるためには、声の権利に関する法的主張やプラットフォームの対応が急務となります。
4-3. クリエイティブの混乱
音楽や映像制作にAI音声を活用するメリットは大きい一方で、無断で他人の声をサンプリングしたり、模倣したりする行為が横行すると、クリエイターの権利侵害や市場の混乱を引き起こす懸念があります。作品の質が向上する反面、作品に対する信頼性やオリジナリティをどう担保するかという課題も生まれています。
5. これからの展望と対策
5-1. 法整備の可能性
将来的には、「肖声権」「人声権」「声のパブリシティ権」など声に関する権利を明確化した法整備や判例の蓄積が進むことが期待されます。悪用を取り締まりつつも、創作活動や表現の自由を必要以上に制限しないように、バランスのとれたルール作りが重要です。
5-2. プラットフォームによる自主規制・ガイドライン
法整備を待っているだけでは実効性に欠けるため、音声配信サービスやSNSプラットフォームが先行して自主規制を強化するケースも考えられます。たとえば「合成音声である場合は明示する」「他人の声を本人の許可なくアップロード禁止」など、規約で取り決めることが有効です。違反者への警告や投稿削除措置が迅速に行われれば、被害の拡大を防ぎやすくなります。
5-3. 契約による権利保護
声優や歌手などのプロフェッショナルの場合、契約書に「音声をAI合成に利用する場合のルール」や「二次使用の範囲」などを明記する動きが広がっています。個人でも、もし自分の声に価値があると考えられる場合は、予防的に契約面や法的保護策を検討しておくと安心です。
6. 私たちができること
むやみに他人の声を録音・転載しない
趣味やSNSでの利用であっても、他人の声を使う際には相手の了承を取るのが基本です。怪しい電話や音声情報をすぐに信じない
ディープフェイクが広まる時代、声が本人そっくりだからといって安心はできません。二重確認が大切です。自分の声を録音・公開する際に注意
SNSや配信で安易に声を公開すると、合成の材料にされるリスクがあります。公開範囲を限定したり、無断録音を防ぐ仕組みを検討したりすることも有効です。困ったときは専門家へ相談
もし自分の声が勝手に使われていると感じたら、スクリーンショットや音源を証拠として確保し、専門家(弁護士など)に相談するのが望ましいでしょう。
7. まとめ
「肖声権」「人声権」「声のパブリシティ権」とは?
いずれも、人間の声に関する権利を保護するための概念であり、法的にはまだ確立された統一呼称が存在しません。しかし技術の進歩に伴い、声を無断で合成・模倣されるリスクが高まっている中、今後ますます重要視されると考えられます。なぜ注目されているのか
ディープフェイクなどのAI技術が悪用されれば、詐欺やなりすまし、誹謗中傷、そしてクリエイターの権利侵害など多くの問題が発生します。社会的な被害を防ぐには、声を守る権利の整備や認知が不可欠です。どのように守るのか
現行法の人格権・パブリシティ権・プライバシー権などの枠組みを使いながら、将来的には新しい法整備や判例の積み重ねが期待されています。また、プラットフォーム側の自主規制や契約によるルールづくりも有効な対策手段です。私たち個人ができること
他人の声を無断で利用しないことはもちろん、怪しい音声情報をうのみにせず、必要に応じて法的手段をとるといった心構えも大切です。
私たちの「声」は、姿形と並ぶ重要な人格の一部であり、時に大きな経済的価値も持ちます。だからこそ、AI技術の時代においては「声の権利」をいかに保護し、悪用を防ぐかが大きなテーマになっています。今はまだ法律面での整備が十分ではないものの、社会的な問題意識が高まりつつある今こそ、私たち一人ひとりが自分の声を守る意識を持ち、正しい情報を共有していく必要があるでしょう。技術の進歩は止められないからこそ、ルールや権利の在り方を考えることは、私たちの未来をよりよいものにするためにも不可欠です。
以上が、AI時代に知っておきたい「肖声権」「人声権」「声のパブリシティ権」と、その背景・対策についての解説です。音声に関する権利はまだ議論の余地が多く、今後の動きによっては大きく変わる可能性もあります。これを機に、皆さんも「声の権利」への理解を深めていただければ幸いです。