منوعات

لماذا أوقفت جوجل خاصية إنشاء صور الأشخاص في روبوت Gemini؟

لماذا أوقفت جوجل خاصية إنشاء صور الأشخاص في روبوت Gemini؟

[ad_1]

تسمح لك أدوات توليد الصور المدعومة بالذكاء الاصطناعي بإنشاء صور لأي شيء يمكنك التفكير فيه، بما يشمل: الشخصيات التاريخية. ومع ذلك، عندما بدأ المستخدمون بمطالبة روبوت (Gemini) من جوجل بإنشاء صور لشخصيات تاريخية أو أشخاص من أعراق أو جنسيات مختلفة، وَجَدُوا أن الصور التي يقدمها الروبوت لم تكن مطابقة لمطالبتهم.

إذ إن روبوت (Gemini) لم يتمكن من توليد صور للأشخاص ذوي البشرة البيضاء، حتى لو كان الشخص أبيض اللون، وبدلًا من ذلك أنتج صورًا لأشخاص متعددي الثقافات ومتنوعين عرقيًا، مما دفع بعض المستخدمين إلى اتهام جوجل بالتحيز ضد البيض.

وسرعان ما انتقل المستخدمون إلى منصات التواصل الاجتماعي لمشاركة الصور التي قدمها روبوت (Gemini)، إذ أنشأ صور الآباء المؤسسين للولايات المتحدة أشخاص من ذوي البشرة السمراء.

بالإضافة إلى ذلك؛ عندما طلب من روبوت (Gemini) إنشاء صور لجنود ألمان في أعوام الحرب العالمية الثانية، أنشأ صورًا لجنود غير بيض. وقد تضامن بعض المستخدمين مع جوجل، مشيرين إلى أنها سعت إلى تصحيح التحيز العرقي في تدريب الذكاء الاصطناعي، ولكن التصحيح جاء مبالغًا فيه وفي غير موضعه.

ونتيجة لذلك أعلنت جوجل إيقاف خاصية توليد صور الأشخاص في روبوت (Gemini) بعد أن قالت إنها تقدم معلومات غير دقيقة في الصور التاريخية.

وأعلنت جوجل العمل على تطوير هذه الخاصية في أسرع وقت ممكن، مشيرة إلى أن إيقافها سيكون مؤقتًا، إذ ستقدم تحديثًا لنموذج (Gemini 1.5 Pro) يضمن عدم تكرار إنشاء صور مضللة حول أعراق البشر المختلفة.

ما السبب وراء وقوع روبوت (Gemini) في هذا الخطأ؟

نشرت جوجل منشور عبر مدونتها أوضحت فيه أن خاصية توليد الصور في روبوت (Gemini) تستند في عملها إلى نموذج (Imagen 2)، وعندما أدمجت هذا النموذج في (Gemini) أجرت فيه بعض التعديلات لتجنب الوقوع في الأخطاء التي شهدتها تقنيات توليد الصور في الماضي، مثل: إنشاء صور لأحداث عنيف، أو صور لأشخاص حقيقيين، وكذلك التحيز لعرق محدد، مشيرة إلى أنها أجرت هذه التعديلات لأن مستخدميها يأتون من جميع أنحاء العالم.

وقد أشار (برابهاكار راغافان) النائب الأول لرئيس جوجل، إلى وجود سببين رئيسيين وراء مشكلة Gemini مع الصور، الأول: فشل النموذج في ضبط مجموعات التدريب كلها، إذ إنه لم ينظر إلى البُعد التاريخي والسياقي للوصف النصي الذي يقدمه المستخدم، على الرغم من تدريبه على توليد الصور بتنوع كبير من حيث الجنس والعرق واللون لتمثيل جميع فئات المستخدمين، والثاني: مع مرور الوقت أصبح النموذج أكثر حذرًا مما تريد جوجل، الأمر الذي جعله يرفض الإجابة عن بعض الأسئلة العادية التي لا تتضمن أية مخالفات، وفسّرها بنحو خاطئ على أنها مطالبات حساسة.

وقد أدى هذان الأمران إلى مبالغة النموذج في الإجابات في بعض الحالات، والإفراط في التحفظ في حالات أخرى، مما أدى إلى ظهور صور محرجة وغير دقيقة.

وعلقت مارجريت ميتشل، وهي كبيرة علماء الأخلاقيات في شركة (Hugging Face)، التي تركز بنحو كبير على معالجة اللغات بالذكاء الاصطناعي، قائلة: “إن جوجل لم تقدم الكثير من التفاصيل حول ما حدث مع روبوتها، ولكن ضبط النموذج الذي أشارت إليه جوجل ربما يكون قد تضمن نوعين من التدخلات”. وأشارت ميتشل إلى النوع الأول من التدخل قد يكمن في إضافة جوجل مصطلحات التنوع العرقي إلى مطالبات المستخدم “في النظام الداخلي”، وفي هذه الحالة قد يختار النموذج المصطلحات الملحقة بنحو عشوائي وقد تحتوي المطالبات أيضًا على مصطلحات متعددة.

وأضافت أن النوع الثاني يكمن في إعطاء جوجل الأولوية لعرض الصور التي أُنشئت بناءً على لون البشرة الداكن، على سبيل المثال: إذا أنشئ روبوت جوجل 10 صور لكل مطالبة، فستطلب جوجل من النظام تحليل لون بشرة الأشخاص في الصور المولدة ودفع صور الأشخاص ذوي البشرة الداكنة إلى أعلى القائمة. وقالت إنه إذا عرض روبوت (Gemini) أفضل 4 صور فقط، فمن المرجح أن تجد الصور التي يقدمها للأشخاص ذوي البشرة الداكنة.

وأضافت ميتشل أنه في كلتا الحالتين، تعالج هذه الإصلاحات التحيز من خلال التغييرات التي تُجرى بعد تدريب نظام الذكاء الاصطناعي، ولكن بدلًا من التركيز في هذه الحلول، ينبغي التركيز في البيانات. وقالت: “لن يكون لدينا أنظمة ذكاء اصطناعي عنصرية إذا نظمنا البيانات بنحو جيد منذ البداية”.

الجدير بالذكر أن معظم الشركات التي تقدم روبوتات الدردشة مثل: Gemini تنشئ حواجز حماية للتخفيف من الانتهاكات وتجنب التحيز، خاصة في ضوء التجارب الأخرى. على سبيل المثال، تعرضت أدوات توليد الصور من شركات مثل: OpenAI لانتقادات عندما أنشأت صورًا لأشخاص بيض في أدوار مهنية إدارية وتصور السود في أدوار نمطية.

بيتشاي ينتقد الفشل غير المقبول في توليد الصور:

أرسل ساندر بيتشاي الرئيس التنفيذي لشركة جوجل، رسالة عبر البريد الإلكتروني للموظفين يوم الثلاثاء الماضي انتقد فيها استجابات روبوت الذكاء الاصطناعي (Gemini) الإشكالية حول العرق، واصفًا إياها بأنها (غير مقبولة إطلاقًا)، وشدد على إجراء تعديلات هيكلية لمنع وقوع حوادث مشابهة.

وقد نشر موقع (Semafor) الإخباري المذكرة الكاملة المرسلة من بيتشاي إلى موظفي جوجل، التي قال فيها: أريد معالجة المشكلات الأخيرة مع إجابات النصوص والصور الملتبسة في روبوت (Gemini) – بارد سابقًا – أعلم أن بعض الردود أساءت إلى مستخدمينا وأظهرت تحيزًا، لنكن واضحين، هذا الأمر غير مقبول مطلقًا وأسأنا فهم المسألة.

وأضاف: “تعمل فرق عملنا على مدار الساعة لمعالجة هذه المشكلات. نشهد بالفعل تحسنًا ملموسًا في مجموعة واسعة من الأوامر التلقينية. لا يوجد ذكاء اصطناعي مثالي، لا سيما في هذه المرحلة الناشئة من تطوير القطاع، لكننا نعلم أن معايير الجودة عالية بالنسبة لنا وسنواصل العمل عليها مهما تطلب ذلك من وقت. وسنراجع ما حدث ونتأكد من إصلاحه بطريقة جيدة. تعد مهمتنا المتمثلة في تنظيم معلومات العالم وجعلها متاحة للجميع ومفيدة، ومهمة مقدسة”.

وكتب بيتشاي أيضًا: “سنتخذ مجموعة واضحة من التدابير، بما فيها تعديلات هيكلية، وإرشادات توجيهية محدثة للمنتج، وعمليات إطلاق محسنة، وتدقيق قوي، وتقييمات تقنية من فرق خارجية، والتوصيات الفنية”. وحث على التركيز في المنتجات المفيدة الجديرة بثقة المستخدمين.





[ad_2]

مصدر الخبر

السابق
فوائد حبوب seroxat ما بين علاج الاكتئاب وتأخير القذف عند الرجال
التالي
أغرب الأحلام وتفسيرها