تُعرَف اللغة عادةً بأنها أداة الفِكر. يستخدم الناس تعبيرات مثل: “لنتحدَّث عن الأمر”، و”صرَّح بما في نفسه”، ويتبعوا “حَبل أفكارهم”، أو “تيَّار وعيهم”.. قد يُنظر إلى بعض أفضل اختراعات الإنسان: الموسيقى، علم الهندسة، وبرمجة الحواسيب، كلغات مجازيَّة. الافتراض الأساسي هو أن العقل يفهم العالَم وتجاربنا فيه من خلال سلسلة من الكلمات. وهذه الصِّلة المفترضة بين اللغة والتفكير هي جزء كبير من براعة ChatGPT، والبرامج المُشابهة له. قدرة الذكاء الاصطناعي على الرد على أيّ سؤال أو طلب بكلامٍ يشبه كلام البشر، يمكن أن يقترح أنّ الآلة تحمل رغبات أو حتى أحاسيس إنسانية.
ولكن بعد ذلك، يقول البرنامج كلامًا سخيفًا أو غير منطقيًا كـ: أنّ هناك 12 حرفًا في كلمة “nineteen”، أو أنّ سَمكة الشراع تعتبر من الثدييات؛ فيختفي الوَهم وتظهر الحقيقة. بالرغم من قدرة ChatGPT على إنتاج النثر الفصيح والبليغ، فهو يتخطَّى بسهولةٍ اختبار تورنغ الذي كان من الصعب اجتيازه في مجال الذكاء الاصطناعي لأكثر من 70 سنة، لكنه قد يبدو في بعض الأحيان أخرقًا أو حتى خطيرًا. فهو يخطئ في حلِّ المعادلات الرياضية، ولا يستطيع أن يعطي أبسط تعليمات الطبخ، ويظهر تحيّزًا صادمًا. في بحثٍ جديد، عالج اللغويون وعلماء الإدراك هذا التنافر عبر فَصل التواصل من خلال اللغة من عملية التفكير: فالقدرة على القيام بأحد الأمرين لا تعني القدرة على القيام بالأمر الآخر. في الوقت الذي يصبّ فيه الخبراء اهتمامهم على قدرة الذكاء الاصطناعي التوليدي على عرقلة كل جوانب حياتنا وعَملنا، يجب أن تجبر حجّتهم الناس على إعادة تقييم حدود وتعقيدات الذكاء البشري والاصطناعي على حدّ سواء.
بيّن الباحثون صعوبة استخدام الكلمات كمرادف للأفكار. في نهاية المطاف، يُعرِّف الناس أنفسهم في مجموعة متصِلة من التفكير البصري والشفوي، فتجربة ألا نستطيع وضع ما نفكر به في كلمات تجربة إنسانية بحتة. تقترح الأبحاث المعاصرة للعقل البشري أن “هناك انفصال بين اللغة والتفكير”، حيث تقول آنا إيفانوفا، عالِمة الأعصاب الإدراكية في معهد ماساتشوستس للتكنولوجيا وواحدة من المؤلفين المسؤولين عن الدراسة. كشفت مسوحات الدماغ لأشخاصٍ يتكلّمون العديد من اللغات عن شبكةٍ معينة من الخلايا العصبية التي تطلق بشكلٍ مستقلّ عن اللغة التي يتم التحدث بها (بما في ذلك اللغات المُصطنعة مثل: Na’vi وDothraki).
تلك الشبكة من الخلايا العصبية لا تشارك عادةً في أنشطة التفكير التي تتضمن الرياضيات والموسيقى والبرمجة. بالإضافة إلى ذلك، الكثير من المرضى المصابين بالحبسة -فقد القدرة على استيعاب أو استخدام اللغة، نتيجةً لتضرر الدماغ- بارعين في العمليات الحسابية والمَهام الذهنية غير المتعلقة باللغة. عند النظر إلى هذه الأدلة معًا، نرى أنّ اللغة لوحدها ليست وسيلة التفكير، فعملها أقرب لكونها مِرسالاً. ما يميز اللغة البشرية هو استخدام النَّحو والمصطلحات لإيصال المهام المتعلقة بالأجزاء الأخرى من الدماغ، مثل التواصل الاجتماعي واستخدام المنطق.
يُظهر ChatGPT، والبرامج المُشابهة له قُدرة هائلة على تكوين الجُمل والفقرات، لكنهم يعانون عند القيام بمهماتٍ أخرى. فعند طلب إنتاجه لرسالةٍ تشرح لطفلٍ ما أن “سانتا كلوز” شخصية مزيفة، يقوم عندها بكتابة رسالة مؤثّرة وقّعها القديس بنفسه. نماذج اللغات الكبيرة (LLM) هذه تعمل على إنتاج الكلمة التالية في الجملة استنادًا لما أتى قبلها في الجملة (على سبيل المثال، تتبع عبارة “الاعتقاد الشائع” (popular belief)، عبارة “خلافًا لـ” (contrary to)). لكن اطلب من ChatGPT أن يحلّ المسائل الحسابية، أو الإملاء، أو أن يعطيك نصيحة بشأن قلي بيضة، فقد يقدّم لك هراءً صحيحًا نحويًا: “إذا قلبت البيضة بقوة، فقد تنكسر القشرة”.
وتدل نقاط الضعف هذه على وجود فارق، يشبه الفارق الموجود في عقل الإنسان، بين تكوين الجُمل وتكوين الأفكار – ما يسمّيه المؤلفان الكفاءة اللغوية الرسمية والكفاءة اللغوية الوظيفية: “نماذج اللغات الكبيرة بارعة في إنتاج اللغة الصحيحة نحويًا واستخدامها بطلاقة”. ويقول كايل ماهوالد، عالِم اللغويات بجامعة تكساس في أوستن، والمؤلف الآخر للدراسة: “لكن ذلك لا يعني أن الشيء القادر على إنتاج اللغة الصحيحة نحويًا، قادر أيضًا على حلِّ المسائل الحسابية، أو الاستدلال المنطقي، أو التفكير، أو معرفة كيفية التعامل مع السياقات الاجتماعية”.
إن كانت شبكة اللغة في عقل الإنسان غير مسؤولة عن حلِّ المسائل الحسابية أو الموسيقى أو البرمجة – أيّ مسؤولة عن التفكير – إذن لا يوجد سبب لأن تكون “الشبكة العصبية” الاصطناعية المُدرَّبة على مجموعة من النصوص قادرة على ذلك “بما يتوافق مع الأدلة من علم الأعصاب الإدراكي”، يكتب المؤلفان: “تصرف نماذج اللغات الكبيرة يبين الفرق بين القدرة على استخدام اللغة ببراعةٍ والقدرة على التفكير ببراعة”. قدرة ChatGPT على الحصول على درجات جيدة نسبيًا في بعض امتحانات كلّيات الأعمال والحقوق، ليس إلّا سرابًا لا علامة على الفهم.
ومع ذلك، جلّ الاهتمام ينصبّ على الإصدار الجديد من نماذج اللغات الكبيرة، التي ستدُرَّب على مقدارٍ أكبر من الكلمات وسيكون لديها قدرة حاسوبية أكبر. شركة OpenAI، مبتكرة ChatGPT، تدعي أن برامجها تقترب من الوصول إلى ذكاءٍ عام مزعوم، سيضع الآلات على قدَم المساواة مع البشرية. ولكن إن كانت تلك المقارنة مع عقل الإنسان سليمة، إذن حتى إن أصبحت النماذج أفضل في التوقّع بالكلمات، فإن ذلك لن يجعلها أقرب لذلك الهدف. بكلماتٍ أخرى، يمكنك أن تستبعد فكرة أن برامج الذكاء الاصطناعي مثل ChatGPT لديها روح أو تشبه كابوس الغزو الفضائي.
إيفانوفا وماهوالد يؤمنان بأهمية تغيير طرق التدريب لتحفيز المزيد من التقدم في مجال الذكاء الاصطناعي – على سبيل المثال، مناهج مُختصة بالمنطق أو التفكير الاجتماعي بدلاً من توقّع الكلمات. حينئذٍ، قد يأخذ ChatGPT خطوة في ذلك الاتجاه بالفعل، فلا يقوم فقط بقراءة كميات هائلة من النصوص، بل أيضًا يُدرج التغذية الراجعة البشرية: استطاع المشرفون أن يعلّقوا على ما مثَّل ردًا جيدًا أو سيئًا. ولكن بعدم توفر تفاصيل كافية عن تدريب ChatGPT، ليس من الواضح ما استهدفته تلك المدخلات البشرية، فعلى ما يبدو أن البرنامج يظن أن قيمة 1000 أكبر وأقل من 1062 في نفس الوقت (أصدرت شركة OpenAI بالأمس تحديثًا لبرنامج ChatGPT، الذي من المفترض أن يحسّن من “قدراته على حلّ المسائل الحسابية”، ولكنه بحسب ما ورد لا يزال يواجه صعوبة في حلِّ أبسط المسائل الكلامية).
تجدر الإشارة إلى أن هنالك أشخاص يعتقدون أن نماذج اللغات الكبيرة ليست ماهرة في اللغة بمقدار ما يزعم المؤلفان – وأنهم يعادلون ميزة الإكمال التلقائي التي تتزايد عيوبها بتزايد مدى تغطيتها. ويقول غاري ماركوس، عالم الإدراك المعرفي وباحث بارز في الذكاء الاصطناعي: “اللغة ليست فقط النحو والإعراب، فهي تتعلق أيضًا بعلم الدلالة”. أيّ، لا يتعلق الأمر بقدرة روبوتات الدردشة على عدم فهم المعادلات الحسابية أو طريقة قَلي البيض فحسب، بل تجد تلك الروبوتات صعوبة في فهم الكيفية التي تستمد عَبرها الجملة معناها من هيكلة أجزاءها.
على سبيل المثال، تخيّل وجود ثلاث كُرات بلاستيكية في صفٍّ واحد أمامك: خضراء، وزرقاء، وأخرى زرقاء. عندما يطلب أحد منك أن تأخذ “الكرة الزرقاء الثانية” فإنك تفهم من ذلك إشارتهم للكرة الأخيرة في الصف، لكن قد يفهم الروبوت من ذلك الطلب أنهم يشيرون إلى الكرة الثانية، فهي زرقاء اللون أيضًا. يقول ماركس: “وصف نموذج لغة بأنه “فصيح” أمرٌ مبالغ فيه”. ولكن من منظور إيفانوفا، لا يتطلب مثال الكرة الزرقاء تكوين الجُمل فحسب، بل تخيّل المشهد كذلك، وعلى هذا الأساس فهو “لا يتعلّق باللغة الصحيحة، بل باستخدام اللغة”.
فمهما كان استخدامها للغة مقنعًا إلّا أن هنالك قدر كبير من النقاش حول مقدار “فهم” البرامج مثل ChatGPT للعالَم، بعدما تغذَّت على معلومات من الكتب وصفحات الويكيبيديا “المعنى ليس أمرًا مُسلَمًّا به”، تقول روكسانا جيرجو، عالِمة اللغويات الحاسوبية بجامعة إلينوي في أوربانا شامبين. “المعنى يُتفق عليه عبر التفاوض من خلال تعاملنا، ونقاشنا، وليس فقط مع الأشخاص الآخرين، بل أيضًا مع العالَم. إنه شيء نسعى للوصول إليه عبر التواصل باستخدام اللغة”. إن كان ذلك صحيحًا، سيتطلب بناء آلة تحظى بالذكاء الحقيقي طريقة مختلفة لدمج اللغة والتفكير، لا عبر استخدام طبقات مختلفة من الخوارزميات فحسب، بل عبر تصميم برنامج يستطيع، على سبيل المثال، تعلّم اللغة وكيفية التعامل مع العلاقات الاجتماعية في الوقت ذاته.
ولا يرفضان إيفانوفا وماهوالد وجهة النظر القائلة “إنّ اللغة تجسِّد الذكاء البشري” رفضًا تامًا، بل يزيدان الأمور تعقيدًا. إذ “يجيد” البشر استخدام اللغة على وجه التحديد بسبب دمجهم للتفكير والتعبير. الحاسوب الذي يتقن قواعد اللغة واستخدامها سيكون بالضرورة ذكيًا – ويتمثّل الجانب السلبي لذلك في أن التركيز على القُدرة على محاكاة الكلام البشري هو ما يمنع الآلات من التطور. ولكن، قبل أن نستخدم عقولنا العضوية لفهم العقول الاصطناعية، سنحتاج لأفكارٍ وكلماتٍ جديدة لنفهم أهمية اللغة نفسها.
(وفق اتفاقية خاصة بين مؤسسة معنى الثقافية، ومنصة ذا أتلانتيك).
تُرجمت هذه المقالة بدعم من مبادرة «ترجم»، إحدى مبادرات هيئة الأدب والنشر والترجمة.

الآراء والأفكار الواردة في المقالة تمثّل وِجهة نَظر المؤلف فقط.