「機械学習技術の民主化」

no extension

AI は「人」ではない

まず大前提として,そもそも著作権というのは他者の「表現」を規制することを意図し「作られた権利」であるということ,さらに「表現」と「意匠」は各種知財権の観点では異なるドメインであることは頭に入れておいて欲しい。

もうひとつの前提として,アウトプットする機械に「権利」は発生しない。

もう1つの論点が「AI生成物は著作物なのか?」である。著作物であれば、作成者がAIであっても第三者は勝手に利用できない。仮に著作物であるとすると、自動作曲サービスで作成された楽曲の第三者による利用や流通は大幅に制限される。

これに対する国際的な通説は「人がコンピューターを道具として使えば著作物」。ただ、創作の主体はあくまで人でなければならない。これは、人がカメラ(という道具)を使って撮影した作品を著作物として扱う考えと近い。逆に、人が主体とならず、ボタン1個で生成されるような楽曲は、著作物ではないとされてきた。

「権利」というのは「(法的な意味での)人」に対して発生するものであり,機械は「人」と認められていない。 ゆえに機械がアウトプットする「著作物」の権利はインプットする(それが著作物なら)著作物の権利者とアウトプットさせる人との関係で発生する,ということになる。

たとえば美術館に飾ってある絵画をカメラで撮ったら,その写真の権利は絵画の著作(権)者に帰属する(逐次的コピーというやつだ)。 一方,絵画の著作権が期限切れなら写真を撮った人に権利が帰属するかもしれない。

その上で「〇〇風のデザイン」というときに,それが「〇〇」の翻案と言えるのか,それとも(「表現」ではなく)「意匠」という別ドメインの問題なのか,あるいは全然まったく無問題なのか,といった議論はあっていいと思う。 ちなみに,日本の著作権法に「公正な利用(fair use)」という考え方はないし「権利の制限」は使いどころも制限されている。

まぁ,実際には(問題・実害があるなら)何らかの訴訟を起こして司法の判断を仰ぐべきだろうけど。 自称専門家の戯言や官僚のご都合主義なガイドラインや合理性に欠く政令に振り回されるべきではない(本来なら)。

AI を巡る情報の非対称性

以前の「GitHub Copilot は貢献者から貢献を奪うか?」でも少し書いたが, Copilot の問題は学習データのインプットが不透明な点にあると思う。 AI という機械を挟んで情報が非対称になっているわけだ。 コードを AI にぶち込むことで,付随するライセンスやコード貢献1 といった諸々が「洗浄」されてしまう。

でもこれはプログラム・コードに限った話ではないし,文章や映像・絵画・イラストや音楽などは関係するアクターが分かりやすいので余計に面倒くさくなる。

出自が不透明な「AI 作品」は,喩えが悪くて申し訳ないが,よく分からない食材で作られた料理みたいなものだ。 個人では食材など気にせず美味ければ食うという人もいるだろうし「無理!」という人もいるだろう。 でも食材の traceability が重視される昨今に於いて「よく分からない食材で作られた料理」というのは社会的には NG だと思う。

「AI 作品」もそろそろそういうフェーズに入ったのではないか,と私は思うのだがどうだろう。 餓鬼のごとく何でも食わせて「AI ならこんなこともできます」とかいった物言いは通用しなくなってくると思う。

【2022-09-01 追記】

バイオ氏に協力したウィリソン氏は自身のブログで、「トレーニングに用いられた画像がブラックボックスではなくなることで、AIの倫理問題が難しくなると思います」と語っています。ウィリソン氏によると、トレーニングセット内の各画像が自動生成される画像に対して提供する部分はごくわずかであり、ネットワーク全体に広がる数値の比重を微調整するにすぎません。しかし、データセットとして抽出された元の画像を作成した人は、AIを自身の生活に対する直接的な脅威とみなすことがあるとのこと。ウィリソン氏はそのような感覚の人を「AIヴィーガン」と表現し、ヴィーガンの人を尊重しつつも自身は肉を摂取するように、画像生成AIの価値観を受け入れられない人を尊重しつつも、画像生成AIの素晴らしい可能性を試していきたいという姿勢を示しています

結局そこだよなぁ。 なりすましとか絵柄パクとか言い募るほど「要するに『AIに仕事やアイデンティティが奪われる』ことへの恐怖だろう」という感想にしかならない。 まぁ,軽い話ではないが時代の転換点ではよくある話でもある。

「機械学習技術の民主化」

面白い tweet を見かけた。

なるほど。 まぁ,悪意や害意を持つ人ならわざわざ mimic のようなサービスを使わなくても自家発電できるよね。

そう考えると mimic のような事例 は,学習データのインプットを(サービスではなく)ユーザがコントロールでき,かつそれを他者(サービス?)が監視可能という点でまだマシという気がする。 あとは系(システム)全体の透明度をどの程度上げれるかだろう。 透明度を上げていけば周囲が懸念する「絵柄パク」のようなケースも自然に析出される筈。

でも,こういうのは「文化」が重要なんだよね。 サービスやコミュニティ内で「パクリ上等」みたいな雰囲気が醸成されてしまうと本当にカオスになるし,「パクリ,ダメ,絶対」みたいな規範が育つと(良くも悪くも)同調圧力がかかったりする。

何度でも言うけど,社会を変えるのはそれを構成する「人」なのよ。 AI お絵描きの明日はどっちだ(笑)

【2022-08-31 追記】

mimic はどうやらサービスを停止したらしい。

まぁ,日本リージョンではこの話は試合終了ってことで(笑)

「工学は善の実現」

リスクだけを論って dis ったり禁止しようとするのは野蛮人の所業だ。 かといってベネフィットだけを見てリスクに目を向けないのはお馬鹿だろう。 道具・手段は上手に使ってこそである。 そして「上手に使う」ことを助けるための実装を行うのがエンジニアの仕事である。

理学は、真理の探究であり、工学は善の実現である。そして、藝術は美の表現である--これで所謂「真美善」が揃う

ブックマーク


  1. FOSS プロダクトに参加している人たちには「コードへの貢献」こそを報酬としている人も多い。 ↩︎