وهم الحياد: لماذا الذكاء الاصطناعي ليس محايدًا كما نعتقد

 وهم الحياد: لماذا الذكاء الاصطناعي ليس محايدًا كما نعتقد


وهم الحياد في الذكاء الاصطناعي: رسم توضيحي يظهر تحيز الخوارزميات والبيانات





مقدمة

يُقدَّم الذكاء الاصطناعي في الخطاب التقني والإعلامي المعاصر بوصفه أداة عقلانية، دقيقة، ومحايدة، قادرة على تجاوز تحيّزات البشر وأخطائهم. هذا التصور، الذي يبدو مطمئنًا في ظاهره، أسّس لما يمكن تسميته بـ أسطورة الحياد التقني.
غير أن التحليل العلمي والتجريبي لتصميم أنظمة الذكاء الاصطناعي، وبياناتها، وسياقات استخدامها، يكشف أن هذا الحياد ليس سوى وهمٍ منهجي، وأن الذكاء الاصطناعي – رغم طابعه الحسابي – يعكس تحيّزات بشرية، وثقافية، واقتصادية متراكبة.

يهدف هذا المقال إلى تفكيك هذا الوهم، وبيان مصادر التحيّز في الذكاء الاصطناعي، بوصف ذلك خطوة تأسيسية ضرورية لأي نقاش علمي أو أخلاقي جاد حول هذه التقنيات.


أولًا: مفهوم الحياد التقني – من أين جاء الوهم؟

يستند الاعتقاد بحياد الذكاء الاصطناعي إلى جملة من الافتراضات الشائعة، أهمها:

  • أن الخوارزميات تعتمد على الرياضيات، والرياضيات محايدة.
  • أن الآلة لا تمتلك مشاعر أو أيديولوجيا.
  • أن القرارات الحسابية أقل عرضة للتحيز من القرارات البشرية.

في الفلسفة التقنية، يُعرف هذا التصور بـ الحياد الأداتي (Instrumental Neutrality)، أي أن التقنية مجرد أداة، وأن القيم تنشأ فقط من كيفية استخدامها.
غير أن هذا التصور تعرّض لنقد واسع منذ سبعينيات القرن الماضي، خصوصًا في أعمال فلاسفة التقنية الذين أكدوا أن التقنية ليست محايدة في تصميمها ولا في آثارها، لأنها تُنتج داخل سياقات اجتماعية واقتصادية محددة.

الذكاء الاصطناعي لا يظهر من فراغ، بل هو:

  • نتاج قرارات بشرية
  • يُطوَّر داخل مؤسسات
  • ويُوجَّه لتحقيق أهداف معينة

وبالتالي، فإن افتراض حياده هو تبسيط مخلّ لطبيعة النظام ذاته.


ثانيًا: تحيّز البيانات – الأساس غير المرئي للانحياز

1. البيانات ليست مرآة محايدة للواقع

تعتمد أنظمة الذكاء الاصطناعي الحديثة، خصوصًا نماذج التعلم الآلي، على كميات ضخمة من البيانات. وغالبًا ما يُفترض أن “كثرة البيانات” تعني “دقة وحيادًا أعلى”.
لكن البيانات في الواقع:

  • تُجمع من مجتمعات غير متكافئة
  • تعكس علاقات قوة تاريخية
  • وتُنتج داخل أطر ثقافية محددة

وبذلك، فهي تمثل الواقع كما هو منحاز بالفعل، لا كما ينبغي أن يكون.

2. أمثلة على تحيّز البيانات

  • أنظمة التعرّف على الوجوه التي أظهرت دقة أقل مع ذوي البشرة الداكنة بسبب نقص تمثيلهم في بيانات التدريب.
  • نماذج لغوية تعيد إنتاج صور نمطية جندرية أو ثقافية لأنها استُخلصت من نصوص بشرية متحيّزة تاريخيًا.
  • أنظمة توظيف آلي فضّلت فئات معينة لأن بيانات التوظيف السابقة كانت تعكس تمييزًا مؤسسيًا.

في جميع هذه الحالات، لم يختر النظام التحيّز، بل ورثه.


ثالثًا: تحيّز التصميم – حيث تتسلل القيم إلى الخوارزميات

حتى لو افترضنا بيانات “مثالية”، يبقى عامل حاسم آخر: التصميم.

1. اختيارات المطورين

تصميم نموذج ذكاء اصطناعي يتطلب قرارات عديدة، مثل:

  • ما المتغيرات التي تُؤخذ بعين الاعتبار؟
  • ما الذي يُقاس، وما الذي يُهمَل؟
  • كيف يُعرَّف “النجاح” أو “الدقة”؟

هذه القرارات ليست تقنية بحتة، بل معيارية (Normative)، أي أنها تعكس قيمًا وافتراضات حول ما هو مهم وما هو ثانوي.

2. القيم المؤسسية

الذكاء الاصطناعي الذي يُطوَّر داخل:

  • شركة تجارية
  • أو مؤسسة أمنية
  • أو منصة إعلانية

لن يحمل القيم نفسها، حتى لو استعمل الخوارزميات ذاتها.
فالأهداف المؤسسية تُترجم إلى أولويات تصميمية، ثم إلى نتائج تبدو “تقنية” لكنها في جوهرها مُسَيَّسة بالقيم.


رابعًا: تحيّز الأهداف الاقتصادية – عندما يصبح الربح خوارزمية

أحد أكثر مصادر التحيّز تأثيرًا هو المنطق الاقتصادي الذي يحكم تطوير الذكاء الاصطناعي.

1. منطق السوق

في السياقات التجارية، يُطوَّر الذكاء الاصطناعي لتحقيق:

  • زيادة التفاعل
  • تعظيم الأرباح
  • تعزيز الاستهلاك

وهذا يؤدي إلى تفضيل:

  • المحتوى المثير على المحتوى الدقيق
  • التوصيات المربحة على التوصيات العادلة
  • السرعة على التحقق

2. آثار ذلك

  • خوارزميات التوصية قد تعزز الاستقطاب لأنها “تجذب الانتباه”.
  • روبوتات التسوق قد تروّج لمنتجات بعينها لأنها أكثر ربحية، لا لأنها أنسب للمستخدم.

هنا يصبح التحيّز بنيويًا، لا خطأً عارضًا.


خامسًا: أهمية هذا المقال في بناء السلسلة المعرفية

يمثّل هذا المقال حجر الأساس المفاهيمي لسلسلة تناقش تحيّزات الذكاء الاصطناعي، لأنه:

  • يفكك أسطورة الحياد من جذورها
  • يوضح أن التحيّز ليس خللًا طارئًا، بل سمة بنيوية
  • يؤسس لفهم نقدي يسمح بتحليل التطبيقات اللاحقة (التسوق، الإعلام، القانون، التعليم…)

كما يفتح الباب أمام:

  • مساءلة أخلاقية
  • وتنظيم قانوني
  • وتصميم أكثر وعيًا وعدالة

شريطة أن يُدعَم هذا النقاش بمراجع علمية موثوقة من مجالات:

  • أخلاقيات الذكاء الاصطناعي
  • فلسفة التقنية
  • علم الاجتماع الرقمي


خاتمة

الذكاء الاصطناعي ليس محايدًا، لا لأنه “سيئ”، بل لأنه إنساني الصنع، اجتماعي الجذور، واقتصادي التوجّه.
إن الاعتراف بهذه الحقيقة لا يقلل من قيمته، بل يضعه في إطاره الواقعي الصحيح.

وفي عالم تتزايد فيه سلطة الخوارزميات، يصبح تفكيك وهم الحياد ليس ترفًا فكريًا، بل ضرورة معرفية وأخلاقية، تمهّد الطريق لسؤال أكثر نضجًا:
كيف نصمّم ذكاءً اصطناعيًا أكثر عدلًا، لا أكثر ادعاءً للحياد؟


 المراجع :

  • Hellström, T., Dignum, V., & Bensch, S. (2020). Bias in machine learning – What is it good for? AI & Society, 35(4), 923–934. https://doi.org/10.1007/s00146-020-01026-1

  • Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of the Conference on Fairness, Accountability, and Transparency, 77–91. https://doi.org/10.1145/3287560.3287572

  • González Sendino, R., Serrano, E., Bajo, J., & Novais, P. (2023). A review of bias and fairness in artificial intelligence. International Journal of Interactive Multimedia and Artificial Intelligence, 8(3), 6–15. https://doi.org/10.9781/ijimai.2023.03.001

  • O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing.

  • Barocas, S., Hardt, M., & Narayanan, A. (2023). Fairness and machine learning: Limitations and opportunities. MIT Press. https://fairmlbook.org




ليست هناك تعليقات:

إرسال تعليق

ملحوظة: يمكن لأعضاء المدونة فقط إرسال تعليق.