[ad_1]
تسمح لك أدوات توليد الصور المدعومة بالذكاء الاصطناعي بإنشاء صور لأي شيء يمكنك التفكير فيه، بما يشمل: الشخصيات التاريخية. ومع ذلك، عندما بدأ المستخدمون بمطالبة روبوت (Gemini) من جوجل بإنشاء صور لشخصيات تاريخية أو أشخاص من أعراق أو جنسيات مختلفة، وَجَدُوا أن الصور التي يقدمها الروبوت لم تكن مطابقة لمطالبتهم.
إذ إن روبوت (Gemini) لم يتمكن من توليد صور للأشخاص ذوي البشرة البيضاء، حتى لو كان الشخص أبيض اللون، وبدلًا من ذلك أنتج صورًا لأشخاص متعددي الثقافات ومتنوعين عرقيًا، مما دفع بعض المستخدمين إلى اتهام جوجل بالتحيز ضد البيض.
وسرعان ما انتقل المستخدمون إلى منصات التواصل الاجتماعي لمشاركة الصور التي قدمها روبوت (Gemini)، إذ أنشأ صور الآباء المؤسسين للولايات المتحدة أشخاص من ذوي البشرة السمراء.
America’s Founding Fathers, Vikings, and the Pope according to Google AI: pic.twitter.com/lw4aIKLwkp
— End Wokeness (@EndWokeness) February 21, 2024
بالإضافة إلى ذلك؛ عندما طلب من روبوت (Gemini) إنشاء صور لجنود ألمان في أعوام الحرب العالمية الثانية، أنشأ صورًا لجنود غير بيض. وقد تضامن بعض المستخدمين مع جوجل، مشيرين إلى أنها سعت إلى تصحيح التحيز العرقي في تدريب الذكاء الاصطناعي، ولكن التصحيح جاء مبالغًا فيه وفي غير موضعه.
This is not good. #googlegemini pic.twitter.com/LFjKbSSaG2
— John Lussier (@johnlu0x) February 20, 2024
ونتيجة لذلك أعلنت جوجل إيقاف خاصية توليد صور الأشخاص في روبوت (Gemini) بعد أن قالت إنها تقدم معلومات غير دقيقة في الصور التاريخية.
We’re already working to address recent issues with Gemini’s image generation feature. While we do this, we’re going to pause the image generation of people and will re-release an improved version soon.
— Google Communications (@Google_Comms) February 22, 2024
وأعلنت جوجل العمل على تطوير هذه الخاصية في أسرع وقت ممكن، مشيرة إلى أن إيقافها سيكون مؤقتًا، إذ ستقدم تحديثًا لنموذج (Gemini 1.5 Pro) يضمن عدم تكرار إنشاء صور مضللة حول أعراق البشر المختلفة.
ما السبب وراء وقوع روبوت (Gemini) في هذا الخطأ؟
نشرت جوجل منشور عبر مدونتها أوضحت فيه أن خاصية توليد الصور في روبوت (Gemini) تستند في عملها إلى نموذج (Imagen 2)، وعندما أدمجت هذا النموذج في (Gemini) أجرت فيه بعض التعديلات لتجنب الوقوع في الأخطاء التي شهدتها تقنيات توليد الصور في الماضي، مثل: إنشاء صور لأحداث عنيف، أو صور لأشخاص حقيقيين، وكذلك التحيز لعرق محدد، مشيرة إلى أنها أجرت هذه التعديلات لأن مستخدميها يأتون من جميع أنحاء العالم.
وقد أشار (برابهاكار راغافان) النائب الأول لرئيس جوجل، إلى وجود سببين رئيسيين وراء مشكلة Gemini مع الصور، الأول: فشل النموذج في ضبط مجموعات التدريب كلها، إذ إنه لم ينظر إلى البُعد التاريخي والسياقي للوصف النصي الذي يقدمه المستخدم، على الرغم من تدريبه على توليد الصور بتنوع كبير من حيث الجنس والعرق واللون لتمثيل جميع فئات المستخدمين، والثاني: مع مرور الوقت أصبح النموذج أكثر حذرًا مما تريد جوجل، الأمر الذي جعله يرفض الإجابة عن بعض الأسئلة العادية التي لا تتضمن أية مخالفات، وفسّرها بنحو خاطئ على أنها مطالبات حساسة.
وقد أدى هذان الأمران إلى مبالغة النموذج في الإجابات في بعض الحالات، والإفراط في التحفظ في حالات أخرى، مما أدى إلى ظهور صور محرجة وغير دقيقة.
وعلقت مارجريت ميتشل، وهي كبيرة علماء الأخلاقيات في شركة (Hugging Face)، التي تركز بنحو كبير على معالجة اللغات بالذكاء الاصطناعي، قائلة: “إن جوجل لم تقدم الكثير من التفاصيل حول ما حدث مع روبوتها، ولكن ضبط النموذج الذي أشارت إليه جوجل ربما يكون قد تضمن نوعين من التدخلات”. وأشارت ميتشل إلى النوع الأول من التدخل قد يكمن في إضافة جوجل مصطلحات التنوع العرقي إلى مطالبات المستخدم “في النظام الداخلي”، وفي هذه الحالة قد يختار النموذج المصطلحات الملحقة بنحو عشوائي وقد تحتوي المطالبات أيضًا على مصطلحات متعددة.
وأضافت أن النوع الثاني يكمن في إعطاء جوجل الأولوية لعرض الصور التي أُنشئت بناءً على لون البشرة الداكن، على سبيل المثال: إذا أنشئ روبوت جوجل 10 صور لكل مطالبة، فستطلب جوجل من النظام تحليل لون بشرة الأشخاص في الصور المولدة ودفع صور الأشخاص ذوي البشرة الداكنة إلى أعلى القائمة. وقالت إنه إذا عرض روبوت (Gemini) أفضل 4 صور فقط، فمن المرجح أن تجد الصور التي يقدمها للأشخاص ذوي البشرة الداكنة.
وأضافت ميتشل أنه في كلتا الحالتين، تعالج هذه الإصلاحات التحيز من خلال التغييرات التي تُجرى بعد تدريب نظام الذكاء الاصطناعي، ولكن بدلًا من التركيز في هذه الحلول، ينبغي التركيز في البيانات. وقالت: “لن يكون لدينا أنظمة ذكاء اصطناعي عنصرية إذا نظمنا البيانات بنحو جيد منذ البداية”.
الجدير بالذكر أن معظم الشركات التي تقدم روبوتات الدردشة مثل: Gemini تنشئ حواجز حماية للتخفيف من الانتهاكات وتجنب التحيز، خاصة في ضوء التجارب الأخرى. على سبيل المثال، تعرضت أدوات توليد الصور من شركات مثل: OpenAI لانتقادات عندما أنشأت صورًا لأشخاص بيض في أدوار مهنية إدارية وتصور السود في أدوار نمطية.
بيتشاي ينتقد الفشل غير المقبول في توليد الصور:
أرسل ساندر بيتشاي الرئيس التنفيذي لشركة جوجل، رسالة عبر البريد الإلكتروني للموظفين يوم الثلاثاء الماضي انتقد فيها استجابات روبوت الذكاء الاصطناعي (Gemini) الإشكالية حول العرق، واصفًا إياها بأنها (غير مقبولة إطلاقًا)، وشدد على إجراء تعديلات هيكلية لمنع وقوع حوادث مشابهة.
وقد نشر موقع (Semafor) الإخباري المذكرة الكاملة المرسلة من بيتشاي إلى موظفي جوجل، التي قال فيها: أريد معالجة المشكلات الأخيرة مع إجابات النصوص والصور الملتبسة في روبوت (Gemini) – بارد سابقًا – أعلم أن بعض الردود أساءت إلى مستخدمينا وأظهرت تحيزًا، لنكن واضحين، هذا الأمر غير مقبول مطلقًا وأسأنا فهم المسألة.
وأضاف: “تعمل فرق عملنا على مدار الساعة لمعالجة هذه المشكلات. نشهد بالفعل تحسنًا ملموسًا في مجموعة واسعة من الأوامر التلقينية. لا يوجد ذكاء اصطناعي مثالي، لا سيما في هذه المرحلة الناشئة من تطوير القطاع، لكننا نعلم أن معايير الجودة عالية بالنسبة لنا وسنواصل العمل عليها مهما تطلب ذلك من وقت. وسنراجع ما حدث ونتأكد من إصلاحه بطريقة جيدة. تعد مهمتنا المتمثلة في تنظيم معلومات العالم وجعلها متاحة للجميع ومفيدة، ومهمة مقدسة”.
وكتب بيتشاي أيضًا: “سنتخذ مجموعة واضحة من التدابير، بما فيها تعديلات هيكلية، وإرشادات توجيهية محدثة للمنتج، وعمليات إطلاق محسنة، وتدقيق قوي، وتقييمات تقنية من فرق خارجية، والتوصيات الفنية”. وحث على التركيز في المنتجات المفيدة الجديرة بثقة المستخدمين.
[ad_2]