الحدث لايت
زعم تقرير جديد أن الأشخاص الشاذين الذين يميلون للاعتداء الجنسي على الأطفال يستخدمون الذكاء الاصطناعي (AI) لإنشاء صور اعتداء جنسي على القصر تحاكي الواقع.
ويزعم تحقيق صادم وجود صور للأطفال والرضع وهم يتعرضون للاغتصاب من بين العديد من الصور التي أنتجها المعتدون باستخدام Stable Diffusion.
وبينما يهدف برنامج إنشاء الصور إلى إنتاج عمل فني، فإن استخدام الذكاء الاصطناعي لمطالبات الكلمات يسمح بتشكيل أي صورة مرغوبة.
وتزعم "بي بي سي" أن هذه الأشياء يتم بيعها وتداولها بعد ذلك على موقع Pixiv الياباني، حيث تؤدي الحسابات غالبا إلى محتوى أكثر وضوحا على موقع Patreon في الولايات المتحدة.
ويأتي التقرير الجديد بعد شهر واحد فقط من العثور على منصة Midjourney للذكاء الاصطناعي لتحويل الصور الحقيقية للأطفال إلى صور جنسية.
وفي بعض الحالات، ذهب المنحرفون إلى أبعد من ذلك من خلال تجربة تقنية "التزييف العميق" للصق وجوه الممثلين الأطفال الواقعيين على أجساد عارية، وفقا للسلطات.
ووسط هذه الاكتشافات، قالت آنا إدموندسون، رئيسة السياسة والشؤون العامة في الجمعية الوطنية لمنع القسوة عن الأطفال (NSPCC)، لـ MailOnline إنها "تحبس أنفاسها'' ولكنها للأسف "ليست متفاجئة''.
وقالت إن "الذكاء الاصطناعي والواقع الافتراضي يسهلان ظهور خطوط أمامية جديدة في مجال الاعتداء الجنسي على الأطفال عبر الإنترنت والذي يتم استغلاله من قبل الجناة على نطاق واسع. إن السرعة التي تم بها استخدام هذه التقنيات الناشئة من قبل المسيئين هي أمر مذهل ولكنه ليس مفاجئا، وتعرف شركات التكنولوجيا الآن كيف يتم استخدام منتجاتها لتسهيل الاعتداء الجنسي على الأطفال ولا يمكن أن يكون هناك المزيد من الأعذار للتقاعس عن العمل".
ومن المفهوم أن علامات التصنيف تستخدم بشكل أساسي للقيام بذلك، حيث يستخدمها منشئو المحتوى لفهرسة الكلمات الرئيسية المتخصصة.
ويُقال أيضا إن عددا من التعليقات على هذه المنشورات توجه المستخدمين إلى محتوى مسيء آخر يكون أحيانا حقيقيا تماما.
وقال متحدث باسم Pixiv إنها عززت أنظمة المراقبة في محاولة للتصدي لقضية استغلال الأطفال في المواد الإباحية.