Threads試しに垢取得して、判明したことを報告します。先ずもって自公政権批判〜原発事故について書くとすべて消されます。使い物になりません。黒いXよりも遥かに言論統制が厳しいです。イーロンも駄目ですが、ザッカーバーグも同じ位にク⭕ですね。
Mastodon始めたのは、mstdn.jpの話を聞いてだから2017年4月なんだけど、
じゃあ新しもの好きで何にでも飛びつくかというとそうでもなくて、BlueskyやNostr、Threadsは適当に様子見てればいいや、ぐらいの感覚です。
2017年4月に飛び込んできた人達の多くは本当に新しもの好きというかアルファ系の人達で、最初は凄い勢いで飛びついていきなり解説記事書いたり本書いたりして盛り上げるんだけど、すぐに次行っちゃうのであっという間に居なくなるというw
技術者が興味本位で立てたサーバは、運用には全然興味がなくて、閉鎖もメッチャはやかった、などがありますw
私は本当にMastodonが気に入ったし、一番スジが良いと思ったので、いまでもMastodon系を推し続けてます。
これ、ちゃんと本文を読まずに見出しだけのひとがおおくてこまるのだが、以下が重要な記事である。
「この問題に対応すべくフェディバースに内蔵されたツールはほぼありません。
一方、大規模プラットフォームは自動ツールを使い問題のあるコンテンツを拒否できます。
中央集権型プラットフォームは、コンテンツに対して最終的な権限があり、可能な限りそれを止める能力があります。
しかし、フェディバースでは、悪意あるユーザーのいるサーバーを切り離すくらいしか術がありません。それでは、コンテンツは拡散されてしまうし、被害者も出ます。
分散型が悪いわけではなく、小児性的虐待コンテンツに対抗するための技術的ツールが、どれも一部の中央集権型プラットフォームを念頭においてデザインされていることが問題だと私は考えます。
新しい環境には新しいツールが必要であり、そのためにはエンジニアリソースと資金が必要なのです。」
分散型SNSのMastodonにも小児虐待ポルノコンテンツが拡散 | ギズモード・ジャパン https://www.gizmodo.jp/2023/07/mastodon-fediverse-child-abuse-material-stanford-resear.html
「純粋にアカデミックな疑問」に何故答えられないのかみたいなコメントがうぞうぞわきだしているけれど、事実関係も背景もほとんど何もはっきりとしていない殺人事件について被害者のアイデンティティだの行動だのを決めつけて云々したり、ましてやそれを殊更に特定のマイノリティと結びつけて恐怖だの取り締まりへの要求だのを煽ったりするという、その行為こそが批判されているのをわからないのか、わかっていて話をずらしているのか、いずれにしても酷い。
https://bsky.app/profile/nue.bsky.social/post/3k2zm7vfy5i2c
「TwitterのDMで「引越し先のSNSではどうせ大したフォロワー数になってないんでしょ。芸能人でもないくせに調子に乗ってた罰。こっち(Twitter)には二度と帰ってこなくていいですよ」という何のためなのか全くわからないメッセージをいただいて、
殆ど呟いてないアカウントのことをいつまでも気にかけていただいて恐縮です…と放置しました。
本当に何のためか、何の意味があるのか全然わからないDMでした。
なんだろ」
こわ…
例を見ると Federated なネットワークって基本的にはメッセージ配送の仕組みっぽいけど distributed なネットワークはコンテンツの共同管理っぽい印象がある。これは例の選びかたが恣意的なのか、基本的にそれぞれのユースケースにささる形になっているのか
MastodonのDocにCentralized, Federated, Distributedの比較概念図みたいなのあるけど、FederatedとDistributedの違いが何を言いたいのかよく分からんな(テキストにも書いてなさそう) https://docs.joinmastodon.org/#federation
@lithium03 写真それ自体が犯罪というのではなくて、通常の事件の証拠写真の証拠能力ということであれば、実際にその写真が撮られた状況に関する証拠があれば、被告人側の「AI画像かもしれない」という主張は「合理的な疑い」とは認められないと思います。一枚の写真だけが証拠になるような事件もそうそうないでしょうから、生成AIの影響は限定的かと思います。
児童ポルノ事件の場合は逆に、検察側が被告人が所持する写真がAI画像でないことを立証しなくてはならず、被告人側は撮影状況に関わる情報は当然黙秘しますし、ネットで入手したものについてはそもそも被告人も本物なのかAI画像なのかわかりませんから、立証は極めて困難になると思います。
現在の児ポ法の運用では検察は被写体児童の実在性を主張するのに被害者の特定なんてやってなくて、写真に写ってるから実在する、医師の判断ではこれは未成年者である、って形で犯罪を立証してて、それが通っている。
でもAI生成ポルノが進歩すると「これはAI生成です」と主張されたらそれでは「合理的な疑いを入れない程度の証明」とは言えなくなるだろう。
現状なら専門家が鑑定すればAI生成かそうでないかは判定できるけど、それでも本物の写真をAIに学習させて再生成した「AI生成風の写真」はAI生成と判定されてしまう。
これはもう十分に写実的な表現であるなら実在性は問わない、という形で法改正するしかないと思う。そうでないと児ポ法はザル法になりかねない。