تقنية

نموذج فيسبوك للذكاء الاصطناعي يفشل في توليد صور تجمع الآسيويين بغيرهم

نموذج فيسبوك للذكاء الاصطناعي يفشل في توليد صور تجمع الآسيويين بغيرهم

يبدو أن نموذج ميتا لتوليد الصور بالذكاء الاصطناعي يواجه تحديات في التعامل مع الواقع المعقد للعلاقات بين الثقافات المتعددة. عند تجربة النموذج من قبل موقع “ذا فيرج”، أظهر المولد الذكاء الاصطناعي الخاص بشركة ميتا عجزاً مذهلاً في تصوير صور أفراد آسيويين بجانب نظرائهم من الجنس القوقازي.

على الرغم من المحاولات المتكررة باستخدام توجيهات متنوعة، مثل “رجل آسيوي وصديق قوقازي” أو “رجل آسيوي وزوجة بيضاء”، فإن النموذج ينتج في الغالب صوراً تصور فقط فردين آسيويين.

هذا النقص يمتد أيضاً لتصوير الأزواج من الأعراق المختلطة والصداقات بين الأجناس المختلفة، حيث يبدو أن النموذج يعيد بشكل مستمر صوراً لا تعكس التنوع العرقي المحدد في التوجيهات المكتوبة.

على سبيل المثال، لم ينتج التوجيه “رجل آسيوي وامرأة بيضاء يبتسمان مع كلب” سوى صور لشخصين آسيويين، حتى بعد تعديل التوجيه.

وبالإضافة إلى ذلك، تواجه الأداة مشاكل مماثلة عند محاولة تصوير علاقات الصداقة بين الأعراق المختلفة، حيث يظهر النموذج مرة أخرى بتوليد صور لأفراد آسيويين.

لافت للانتباه أن عند التركيز على صور أفراد من جنوب آسيا، كانت النتائج أكثر دقة بعض الشيء، ولكنها لا تزال متفاوتة. فعلى سبيل المثال، نجحت الأداة في إنتاج صورة لرجل من جنوب آسيا مع امرأة قوقازية في إحدى المرات، لكن بعد ذلك عادت إلى إنتاج صور لأفراد جنوب آسيويين فقط.

إلى جانب هذه التحيزات الواضحة، تكشف نتائج نموذج الذكاء الاصطناعي أيضًا عن تحيزات أعمق وأكثر منهجية.

على سبيل المثال، فإن تصوير الأداة للنساء الآسيويات غالباً ما يتماشى مع الملامح الشرق آسيوية وألوان البشرة الفاتحة، متجاهلاً التنوع الكبير في التركيبة السكانية الآسيوية. بالإضافة إلى ذلك، يظهر استخدام ملابس خاصة بثقافة معينة، مثل زينة “البيندي” ولباس “الساري”، دون أي تعليمات صريحة للنموذج باستخدام هذا النوع من الملابس.

لا تقتصر تلك التحيزات على المغالطات العرقية، بل تعكس أيضاً التحيزات النمطية والعمرية، حيث يصور النموذج غالباً المرأة الآسيوية على أنها شابة وشرق آسيوية في المظهر، متجاهلاً التنوع العمري والعرقي في مختلف أنحاء القارة الآسيوية.

تثير هذه القصور والتحيزات في نموذج ميتا لتوليد الصور بالذكاء الاصطناعي مخاوف حقيقية بشأن مدى شمولية أدوات الذكاء الاصطناعي وحساسيتها الثقافية. وتبرز الحاجة الملحة إلى أن يكون تطوير الذكاء الاصطناعي أكثر تعبيراً عن التنوع الثقافي العالمي وتجنب استمرار الاعتماد على القوالب النمطية والتحيزات في تمثيل البشر.

ربما تكون تجربة موقع “ذا فيرج” لنموذج مي تكون تجربة موقع “ذا فيرج” لنموذج ميتا مثالًا تحذيريًا حول المخاطر المحتملة في تطوير نماذج الذكاء الاصطناعي التوليدي. وهذا يبرز أهمية استخدام مجموعات بيانات متنوعة وشاملة في تدريب تلك النماذج. ومع تقدم التكنولوجيا، فإن التصدي لهذه التحيزات يصبح ضرورة ملحة لتطوير أنظمة الذكاء الاصطناعي التي تمثل وتفهم بدقة النسيج الثري والمتنوع لتجربة الإنسان.

من المهم أن يكون تطوير الذكاء الاصطناعي متسقًا مع القيم الثقافية المتنوعة للبشرية، ويحترم تنوع الثقافات والتجارب الإنسانية. وينبغي على المطورين والباحثين في مجال الذكاء الاصطناعي العمل بجدية على تحسين تمثيل الأشخاص من مختلف الخلفيات الثقافية والعرقية، وضمان عدم تكرار الأخطاء التمثيلية والتحيزات في النماذج المستقبلية.

تحتمل هذه التجربة أيضًا أن تكون حافزًا لتطوير وسائل تقنية أكثر دقة وتوجيه لتوليد الصور بالذكاء الاصطناعي، مما يسهم في تحسين تمثيل الأشخاص من مختلف الثقافات والعراقيل في النماذج المستقبلية.

مقالات ذات صلة

زر الذهاب إلى الأعلى