أحمد الجسار يكتب | الذكاء الاصطناعي والقرارات الأخلاقية

0

إذا كان الذكاء الاصطناعي يتعلم من بيانات البشر، فهل سيعيد إنتاج التحيزات الأخلاقية الموجودة في المجتمع؟
لنفترض أننا صممنا ذكاءً اصطناعياً لاتخاذ قرارات في مواقف أخلاقية معقدة، مثل قيادة سيارة ذاتية القيادة في لحظة حادث محتمل: هل يجب أن تنحرف السيارة لتجنب دهس المشاة، حتى لو أدى ذلك إلى إصابة الراكب؟ أو في قطاع الطب، إذا كان على الذكاء الاصطناعي اختيار من يحصل على سرير العناية المركزة في ظل نقص الموارد، فكيف يمكنه أن يزن قيمة حياة شخص على حساب آخر؟
في مثل هذه الحالات، لا توجد إجابة واحدة صحيحة، لأن القرارات الأخلاقية تعتمد على مبادئ فلسفية متضاربة: هل نتبع مذهب النفعية، الذي يرى أن القرار الأفضل هو ما يحقق أكبر فائدة لأكبر عدد؟ أم نتبع النهج الأخلاقي المطلق الذي يضع قواعد لا يمكن تجاوزها، حتى لو كانت النتيجة غير مثالية؟
إذا كان البشر أنفسهم يختلفون حول الإجابات، فكيف يمكن للآلة أن تحسمها؟
أحد التحديات الكبرى في أخلاق الذكاء الاصطناعي هو أنه يتعلم من بيانات المجتمع، وهذه البيانات ليست محايدة. إذا درّبنا نظاماً للذكاء الاصطناعي على بيانات تاريخية لاتخاذ قرارات التوظيف، وكان التاريخ مليئاً بالتحيزات ضد الأقليات أو النساء، فإن الذكاء الاصطناعي سيتعلم هذه التحيزات ويكررها.
هذا يعني أن الأخلاق التي “يتبناها” الذكاء الاصطناعي ليست نابعة من تفكير عقلاني مستقل، بل هي انعكاس للتحيزات البشرية، ما يجعل قراراته الأخلاقية إشكالية.
إذا كان الذكاء الاصطناعي غير قادر على تطوير أخلاقه الخاصة، فهل يمكننا ببساطة “برمجة” الأخلاق داخله؟ أي أن نزوّده بمجموعة من القواعد الأخلاقية التي يجب عليه اتباعها في جميع قراراته؟
هذه الفكرة ليست جديدة؛ فقد طرح إسحاق أسيموف، كاتب الخيال العلمي الشهير، ثلاث قواعد للروبوتات، تنص على أن الروبوت يجب ألا يؤذي الإنسان، ويجب أن يطيع الأوامر، ويجب أن يحمي نفسه طالما أن ذلك لا يتعارض مع القاعدتين السابقتين. ولكن حتى هذه القواعد البسيطة يمكن أن تؤدي إلى تعقيدات لا نهائية عند تطبيقها في العالم الحقيقي.
مثلاً، ماذا لو كان تنفيذ أمر بشري معين (كالانخراط في حرب) يؤدي إلى الإضرار بالبشر الآخرين؟ كيف يمكن للذكاء الاصطناعي أن يوازن بين الالتزام بالطاعة وعدم الإضرار بالإنسان؟
إذا كنا نتحدث عن قدرة الذكاء الاصطناعي على اتخاذ قرارات أخلاقية، فإن الإجابة تعتمد على تعريفنا لماهية الأخلاق. الذكاء الاصطناعي يمكنه أن “يقلد” الأخلاق بناءً على البيانات التي يتعلم منها، لكنه لا يمتلك إحساساً أخلاقياً حقيقياً كما يفعل البشر، لأنه يفتقر إلى الوعي والمشاعر والتجربة الذاتية.
في النهاية، السؤال الأهم ليس ما إذا كان الذكاء الاصطناعي يمكنه أن يكون أخلاقياً، بل كيف يجب علينا كبشر أن نصمم هذه الأنظمة بحيث تعكس أفضل القيم الأخلاقية لدينا، دون أن تعيد إنتاج تحيزاتنا أو تتسبب في قرارات كارثية غير متوقعة.
ربما، بدلاً من السعي لصنع ذكاء اصطناعي “أخلاقي”، ينبغي أن نركز على تطوير ذكاء اصطناعي “مسؤول”، يخضع لإشراف الإنسان، بحيث يكون أداة تعزز القيم الإنسانية بدلاً من أن تكون بديلاً عنها. ففي نهاية المطاف، تبقى الأخلاق مسؤولية من يضع القواعد، وليس من ينفذها.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.