
نashفيل، تين. — رفع ثلاثة مراهقين في تينيسي دعوى قضائية ضد xAI التابعة لإيلون ماسك هذا الأسبوع، مدعين أن أدوات توليد الصور الخاصة بالشركة تم استخدامها لتحويل الصور الحقيقية لهم إلى صور إباحية بشكل صريح.
قام الطلاب في المدرسة الثانوية، الذين يسعون للتقدم تحت أسماء مستعارة، برفع الدعوى في كاليفورنيا، حيث يقع مقر xAI — شركة الذكاء الاصطناعي التابعة لماسك. يسعون للحصول على وضع دعوى جماعية لتمثيل ما تقول الدعوى إنه آلاف الضحايا مثلهم الذين كانوا قُصّرًا أو كانوا قُصّرًا عندما تم إنشاء صور إباحية لهم.
وفقًا للدعوى، تم تنبيه Jane Doe 1 بشكل مجهول في ديسمبر بأن شخصًا ما كان يوزع صورًا إباحية لها على موقع التواصل الاجتماعي.
“على الأقل خمسة من هذه الملفات، منها فيديو وأربع صور، تصوّر وجهها وجسدها الفعلي في أماكن اعتادت عليها، ولكن تم تحويلها إلى أوضاع إباحية صريحة”، تقول الدعوى. تدعي أن الشخص الذي يوزع الصور كان يعرف Doe واستخدم أدوات توليد الصور الخاصة بـ xAI لتحويل الصور الحقيقية لها إلى صور اعتداء جنسي. كانت إحدى الصور مأخوذة من صورة العودة إلى الوطن. وأخرى مأخوذة من كتاب سنوي للمدرسة الثانوية.
أنشأ الشخص الذي يوزع الصور أيضًا صورًا إباحية لنحو 18 فتاة أخرى على الأقل، اثنتان منهن هن المدّعيات المشتركات في الدعوى. في أواخر ديسمبر، قامت الشرطة المحلية باعتقال الجاني وضبطت هاتفه. ووجدوا أنه قام بتحميل الصور إلى عدة منصات حيث قام بتبادلها من أجل صور إباحية لقصر آخرين.
منعت شركات الذكاء الاصطناعي الأخرى مولدات صورها من إنتاج أي محتوى إباحي، حتى بالنسبة للبالغين. ورأى ماسك في هذا فرصة تجارية وعزز قدرة روبوت الدردشة Grok التابع لـ xAI على إنشاء محتوى “حار”، تقول الدعوى. ومع ذلك، لا يوجد حالياً وسيلة لمنع إنتاج صور إباحية للبالغين مع حظر كاملاً لإنتاج صور للأطفال، حسبما تدّعي الدعوى. كما تدعي أن xAI كانت تعرف أن Grok سيكون قادرًا على إنتاج صور إباحية للأطفال لكنها أطلقتها على أي حال.
قراءات شائعة
تدعي الدعوى أن الشخص الذي وزع صور المدعين استخدم تطبيقًا رخص تقنية xAI أو “اشترى وصوله إلى Grok بطريقة أخرى، وتم استخدامه كوسيط أو عاملاً وسيطاً.”
لم ترد xAI على بريد إلكتروني من وكالة أسوشيتد برس تطلب تعليقا. لكن منشورًا بتاريخ 14 يناير حول الجدل على منصة التواصل الاجتماعي X قال: “نحن ملتزمون بجعل X منصة آمنة للجميع ونواصل العمل على عدم التسامح مطلقًا مع أي أشكال من الاستغلال الجنسي للأطفال، والعارية غير المصرح بها، والمحتوى الجنسي غير المرغوب فيه.
“نتخذ إجراءات لإزالة المحتوى المخالف ذي الأولوية العالية، بما في ذلك مواد استغلال الأطفال الجنسي (CSAM) والعارية غير المصرح بها، taking appropriate action against accounts that violate our X Rules. نحن أيضًا نبلغ عن الحسابات التي تسعى للحصول على مواد استغلال الأطفال الجنسي إلى السلطات القانونية عند الضرورة.”
في هذه الأثناء، قال الطلاب المدعون في الدعوى إنهم يقلقون من أن الصور التي تم إنشاؤها لهم ستظل موجودة إلى الأبد على الإنترنت. يخشون من المطاردة لأن أسمائهم الأولى الحقيقية واسم مدرستهم مرتبطان بالملفات. يقلقون من أن أصدقائهم وزملاءهم قد رأوا الصور ومقاطع الفيديو، التي تبدو حقيقية، ويقلقون من الذين سيرونها في المستقبل.
وقالت Jane Doe 1 إنها تعاني من القلق والاكتئاب والضغط. “لديها صعوبة في الأكل والنوم وتعاني من كوابيس متكررة”، تقول الدعوى. أما Jane Doe 2 “فقد بدأت في العزلة الذاتية وتجنب الوجود في حرم مدرستها، وحتى تخشى حضور تخرجها”. بينما تعاني Jane Doe 3 من الخوف والقلق المستمرين من أن شخصًا ما سيرى الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي ويتعرف على وجهها، وفقًا للدعوى.
