ترجمةفلسفة

كاريسا فيليز: ما الذي يمكن أن يعلمنا إياه سقراط حول الذكاء الإصطناعي؟

إذا كانَ سقراطُ أحكمَ شخصٍ في اليونانِ القديمة، فالنماذجُ اللغويةُ الكبيرةُ¹ ستكون أغبى أنظمةِ العالمِ الحديث.

في محاورةِ الدفاع، يروي أفلاطون كيفَ أنَّ صديقَ سقراط الذي يُدعى كريفون ذهبَ إلى كاهنةٍ في معبدِ ديلفي ليسألَها لو كانَ هُناكَ رجلٌ أحكمَ مِنْ سقراط فتجيبُه الكاهنةُ بالنفي مؤكدةً أن سقراط هو أحكمُ الرجال.

بدتْ الحيرةُ على سقراط في بدايةِ الأمر، مُتسائِلًا كيفَ يكونُ هوَ أحكمَ الرجالِ بينما يوجدُ الكثيرُ من المشهورين بالمعرفةِ والحكمة، وهو نفسهُ يدّعي إفتقارَه لكيلتيهما؟ فجعلَ على عاتقِه مهمةَ حلِّ هذا اللُغز. أخذَ يتجولُ ويحاورُ مجموعةً من السياسيين هنا، الشعراء هناك، والفنانين أيضًا (كعادةِ الفلاسفة). ثم ماذا وجد؟ كشفَت تحقيقاتُ سقراط أن أولئِك الذينَ يدّعون امتلاكَ المعرفةِ إما أنّهم لا يعرفون حقًا ما يعتقدون أنّهم يعرفونه، أو أنهم يعرفون أقل مما يدعون مِنَ المعرفة.

فسقراط هو الأكثرُ حكمة، لأنّه يعي حدودَ معرفته. فهو لا يعتقدْ أنهُ يعرفُ أكثرَ مما يَعرف حقًا، ولا حتى يُعْلِنْ أنه يعرفْ أكثر مما يعرف.

كيفَ يمكنُ مقارنةُ ذلكَ مع نماذج اللغةِ الكبيرةِ مثلَ ChatGPT4؟

على عكسِ سقراط، فالنماذجْ اللغوية الكبيرة لا تعرف ما لا يَقَعْ تحتَ إطارِ معرفتها. هذه الأنظمة لم تُبنَ لتبحثَ عن الحقيقة. فهي لا تستندُ إلى شواهد تجريبيةٍ أو منطقيةٍ بل تستندُ على تخميناتٍ إحصائيةٍ غالبًا ما تكونُ خاطئة. لا تُعلم النماذجُ اللغويةُ الكبيرةُ المستخدمين بأنّها تُجري تخميناتٍ إحصائية، بل تقدمُ تخميناتٍ خاطئةً بنفس الثقة التي تُقدِمُ بها الحقائق. مهما كانَ السؤال، ستمنحُك إجابةً تبدو مقنعة، والإجابةُ لا تكونُ يومًا: “لا أعلم”، رغم أنَّ هذا هو الجواب الذي ينبغي أن يُقال. إذا سألتَ ChatGPT عنْ الأحداثِ الحالية، سيذكّرك بأنه لا يَمْلكُ سوى معلوماتْ حتى سبتمبر 2021، وأنه لا يستطيع تصفحَ الإنترنت. لكن في معظمِ أنواعِ الأسئلةِ الأخرى، سيُغامرُ بتقديمِ إجابةٍ تخلِطُ الحقائق بالخرافات.

يُقدم الفيلسوف هاري فرانكفورت، في أطروحته الشهيرة، أن “الهذيان” هو كلامٌ مُقنعٌ في ظاهره، لكنهُ لا علاقة له بالحقيقة. النماذجُ اللغويةُ الكبيرةُ هي المِثالُ الأقصى للهُراء، لأنّها صُممَت لتبدو معقولةً – وبالتالي مقنعةً – دونَ أي اعتبارٍ لحقيقتِها. ليس بالضرورةِ أن يكونَ الهذيانُ خطأً فقدْ يقولُ من يهذي أحيانًا شيئًا صحيحًا، لكن إن لمْ يكن مرادُه هو الحقيقة، فكل ما يقوله يبقى في خانة الهذيان.

وقدْ حذّرَ فرانكفورت من أن الهذيانَ أمرٌ خطير. فالهذيان يُمثّل تهديدًا للحقيقة أعظم من الكذبِ بذاتِ نفسه. فالشخصُ الذي يكذبُ يعقتد أنه يعرف ما هي الحقيقة، فهو إذن في علاقةٍ معها بحيث يمكن مناقشَته وتفكيكُ دوافعه؛ [الصادقُ-والكاذبُ] يلعبانِ على طرفي النقيضِ في اللعبةِ ذاتها، كما يصورُهم فرانكفورت. أما الهاذي فلا يأْبَه بلعبةِ الحقيقةِ ولا يهتمُ بها أصلًا. فهو لا يواجِه الحقيقةَ في خطابه، بل يتجاهلُها تمامًا، فتنقطع الصلةُ بها.

ويصبحُ الهذيانُ أكثر خطورةً كلما ازدادَ إقناعًا. وتُعدُ النماذجُ اللغويةُ الكبيرةُ مُقنعةً بطبيعتها من وجهتين:

أولًا، لأنها قامَت بتحليل كمٍّ هائلٍ من النصوص، مما يتيحُ لها أن تُخمِّنَ إحصائيًا ما هو الردُ “المرجّحُ” والمناسبُ للسؤالِ المطروح. بمعنى آخر، هي تُحاكي الأنماطَ التي التقطتْها مِنَ النصوصِ التي عالجَتْها فيما سبق.

ثانيًا، لأنَّ هذه الأنظمةَ جرى تحسينُها عبرَ ما يُعرفُ بالتعلمِ التعزيزي بالتغذيةِ الراجعةِ من البشر² (RLHF). فقد تم تدريبُ نظامِ المكافأة مباشرةً استنادًا إلى التغذيةِ الراجعةِ من البشر. أي أنَّ البشرَ هم من علّموا النظامَ نوعيةَ الإجاباتِ التي يُفضّلونها. وذلك من خلالِ تكراراتٍ لا تُحصى، يتعلمُ النظام مِنْ خِلالِها كيفَ يُرضي تفضيلاتِ البشَر، فيُصبح أكثرَ قدرةً على الإقناعِ مع مرورِ الوقت.

كما علمتنا موجاتُ الأخبارِ الزائفة، فإنَّ البشرَ لا يفضّلون الحقيقةَ دائمًا. فالباطلُ غالبًا ما يكونُ أكثرَ جاذبيةً مِنَ الحقائقِ الجافة. نحنُ نميلُ إلى القِصَصِ المشوّقةِ أكثرَ مما نميلُ إلى الحقائق. النماذجُ اللغويةُ الكبيرةُ تُشبه الطالبَ الحالم، أو الأستاذَ المتظاهر، أو الصحفيّ المتذاكي؛ أولئِكَ الذين، بدلًا من الاعترافِ بحدودُ معرفَتهم، يلجأون إلى التمويهِ باللهذيان لملىءِ النقصِ فيها.

تقترحُ علينا محاورةُ أفلاطون “الدفاع” إلى أنْه علينا بناءُ الذكاءِ الاصطناعي ليكون أقربَ إلى سُقراط، وأبعدَ عن الهذاة. لا ينبغي لنا أنّ نتوقعَ مِنْ شركاتِ التقنيةِ أنْ تعملَ على التصميمِ بشكلٍ أخلاقي من تلقاءِ نفسها. فوادي سيليكون⁴ منطقةٌ مشهورةٌ بقدرتها على إنتاجِ الهذيان، بل إنّ بعضَ الشركاتِ قدْ تجدُ نفسَها مضطرةً للخداعِ كي تظلَ قادرةً على المنافسةِ في هذا المناخ. لذا، ليسَ من المستغربِ أن تُنتجَ بيئةٌ يهيمنُ عليها “الهذيان المؤسسي” أدواتً مبرمجةً بدورِها على إنتاجِ الهذيان. من الأشياءِ التي تعلّمناها مِنَ العقدين الماضيين أنَّ قطاعَ التقنيةِ يحتاجُ إلى تنظيمٍ صارمٍ مثله مثلَ غيره مِنَ القطاعات، فلا يُمكنُ لأيَّ قطاعٍ أنْ يُنظمَ نفسَه بنفسه. فنحنُ نُخْضِعُ الغذاء، والدواء، والاتصالات، والمال، والنقلَ للرقابةِ والتنظيم؛ فلماذا لا تكون التكنولوجيا التالية؟

يتركُنا أفلاطون مع تحذيرٍ أخير، ففي أعمالِه هناكَ دروسٌ كثيرةٌ أحدُها هو التنبهُ إلى عيوبِ الديمقراطية. الديمقراطية الأثينية أَعدمَت سقراط. لقد أدانَت أصدقَ المواطنين نيةً، وأعظم المعلّمين نفعًا، بينما سمحَت للسفسطائيين– وهم هذاةُ ذلك العصر – أن يزدهروا. ديمقراطياتنا الحديثة تبدو بدورها هشّة أمام أمواج هذاةِ عصرنا. في الماضي القريب، جعلْنا مِنْ بعضِهم رؤساءَ ووزراء. واليوم، نغذّي قوةً مِنَ النماذجِ اللغويةِ الكبيرة، ونُفكرُ في استخدامِها في مختلفِ جوانبِ الحياةِ – حتى في ميادين كالصحافةِ والسياسةِ والطب، حيثُ الحقيقة هي العنصرُ الأساسي في بقاءِ مؤسساتنا.

فهل ياتُرى يُعد هذا تصرفًا حكيمًا؟

_______________________________

*كاريسا فيليز هي فيلسوف معاصرة وأستاذة في معهد أخلاقيات الذكاء الإصطناعي بجامعة أوكسفورد، مؤلفة كتاب “الخصوصية قوة” كما أنها تعمل محررة لدليل أوكسفورد لأخلاقيات التقنية الرقمية.

*فضلت أن أترجم كلمة Bullshit بالهذيان أي الكلام المضطرب الفاسد، كلامٌ لا نظام له، وBullshitters بالهاذي مفردًا والهذاة جمعًا لدلالتها على مقصد هذه الكلمة التي تُعد حديثة التداول لتدل على من يتكلم شيئًا لا يمتُ إلى الواقع بصلةٍ من جهة، وكلامُه غير منظّم من جهة أخرى بدلًا من أن أستخدم كلمة هراء التي لا تلائمُ تداول كلمة Bullshit.

¹.النماذج اللغوية الكبيرة: هي أحد أنواع الذكاء الاصطناعي التوليدي، وهي نماذج لغوية قادرة على فهم المحتوى المكتوب الذي يعرض عليها وإنتاج محتوى جديد منه وتلخيصه والتنبؤ بتتمة الجمل غير المكتملة وتحليل مشاعر كاتب النص.

².التعلُّم التعزيزي من التغذية الراجعة البشرية (RLHF): هو أسلوب في تدريب نماذج الذكاء الاصطناعي، يُستخدم فيه تقييم البشر لتوجيه النموذج نحو إنتاج استجابات أكثر اتساقًا مع التفضيلات البشرية، وذلك عبر الجمع بين التعلُّم التعزيزي والتغذية الراجعة التي يقدمها الإنسان.

³.نظام المكافأة: هو نموذج يتعلم من تقييمات البشر ليُعطي “درجات” أو “مكافآت” للاستجابات التي تقترب أكثر من تفضيلات المستخدمين أو أهداف النموذج.

⁴.وادي السيليكون: هو منطقة جغرافية تقع في شمال ولاية كاليفورنيا بالولايات المتحدة الأمريكية، ويُعتبر المركز العالمي لصناعة التكنولوجيا والابتكار. تضم هذه المنطقة مقرات كبرى شركات التكنولوجيا العالمية مثل آبل، جوجل، فيسبوك، وإنتل، بالإضافة إلى العديد من الشركات الناشئة في مجالات البرمجيات والذكاء الاصطناعي والتقنيات المتقدمة. باختصار، يُعد وادي السيليكون القلب النابض لصناعة التكنولوجيا والابتكار في العصر الحديث، حيث تُطوَّر وتُبتكر معظم الحلول التقنية الحديثة.

https://time.com/6299631/what-socrates-can-teach-us-about-ai

Related posts
ديداكتيك تدريس الفلسفةفلسفة

عادل حدجامي: في معنى الفيلسوف

ترجمةفلسفة

جان فرانسوا دورتييه: إيمان وعقل، كيف يمكن التوفيق بينهما ؟

ترجمةفلسفة

 كريستيان جامبي: عن الإرث الإغريقي في الإسلام

ترجمةفلسفة

سانتياغو كاسترو غوميز: في الجدل حول الفكر الديكولونيا لي

Sign up for our Newsletter and
stay informed