GPT-4 قد وصل، وربما سمعتَ الكثير عنه بحلول الوقت الذي تقرأ فيه هذا المقال. إنه محرك أذكى وأسرع وأقوى لبرامج الذكاء الاصطناعي مثل ChatGPT، ويمكنه تحويل التصميم المرسوم يدويًا إلى موقع ويب فعال، ويمكنه أن يساعدك في دفع الضرائب. لقد حصل على 5 في اختبار AP Art History. كانت هناك مخاوف بشأن غزو الذكاء الاصطناعي للوظائف الإدارية وتعطيل التعليم وغير ذلك الكثير، وكانت هناك بعض الشكوك المشروعة حول هذه المخاوف. إذن، كيف هو حالنا مع الذكاء الاصطناعي الأقوى؟
قد تكون منبهرًا أو متعبًا، اعتمادًا على ميولك. أنا أشعر بكليهما في وقت واحد. من الصعب القول بأن نماذج اللغات الضخمة الجديدة، أو LLMs، ليست إنجازًا هندسيًا حقيقيًا، ومن المثير أيضًا تجربة الابتكارات التي تبدو سحرية، حتى لو كانت حاسوبية فقط. لكن الحماس المستمر حول التكنولوجيا التي لا تزال ناشئة يهدد بسحق الناس، لأن التعرض المستمر للوعود بمستقبل لن يشبه الماضي كثيرًا هو أمر مرهق ومثير للأعصاب. يتجنب أي إعلان عن إنجاز تكنولوجي على نطاق أحدث نموذج لـ OpenAI بكل تأكيد الأسئلة الحاسمة – تلك الأسئلة التي لا تتناسب بشكل جيد مع مقطع فيديو تجريبي أو منشور مدونة. كيف يبدو العالم عندما يجري دمج GPT-4 والنماذج المماثلة في الحياة اليومية؟ وكيف من المفترض أن نتصور هذه التقنيات عندما لا نزال نعاني من صعوبات مع أسلافها التي لا تزال جديدة بالنسبة إلينا، والتي هي مع ذلك أقل قوة بالتأكيد، بما في ذلك ChatGPT؟
على مدى الأسابيع القليلة الماضية، طرحتُ أسئلة كهذه على الباحثين والأكاديميين ورجال الأعمال في مجال الذكاء الاصطناعي والأشخاص الذين يقومون حاليًا ببناء تطبيقات الذكاء الاصطناعي. لقد أصبحت مهووسًا بمحاولة استيعاب الفكرة، لأنني نادرًا ما أشعر بهذه السلبية تجاه التكنولوجيا الحديثة. عند قراءة العناوين الرئيسة والبحوث الأكاديمية أو مجرد التعمق في المناقشات بين الباحثين أو الداعمين على تويتر، يبدو المستقبل القريب لعالم مليء بالذكاء الاصطناعي وكأنه سراب أو وهم بصري. تتحول المحادثات حول الذكاء الاصطناعي بسرعة إلى منطقة جديدة غامضة واسعة متعددة الألوان. فكيف لها ألا تكون كذلك؟
كلما زاد عدد الأشخاص الذين تحدثت معهم، أصبح من الواضح أنه لا توجد إجابات جيدة عن الأسئلة الكبيرة. ولعل أفضل عبارة سمعتها استُخدِمت للتعبير عن هذا الشعور أتت من لسان نيثن لابينز، رجل الأعمال الذي يبني تكنولوجيا فيديو الذكاء الاصطناعي في شركته، شركة Waymark: “عدم يقين جذري للغاية”.
يستخدم لابينز أدوات مثل ChatGPT لأتمتة المهام الإدارية الصغيرة مثل إضافة تعليقات توضيحية إلى مقاطع الفيديو. للقيام بذلك، يقسم مقاطع الفيديو إلى صور ثابتة ويستخدم نماذج الذكاء الاصطناعي المختلفة التي تقوم بأشياء مثل التعرف إلى النصوص والتقييم الجمالي والتعليقات التوضيحية – وهي عمليات بطيئة ومرهقة عند إجرائها يدويًا. مع أخذ هذا في الحسبان، يتوقع لابينز “مستقبلًا من الخبرة الوفيرة”، متخيلًا، على سبيل المثال، الأطباء العاملين بمساعدة الذكاء الاصطناعي الذين يمكنهم استخدام التكنولوجيا لتقييم الصور أو قوائم الأعراض للتشخيص (حتى مع استمرار الخطأ والتحيز في أدوات الرعاية الصحية الحالية القائمة على الذكاء الاصطناعي). لكن الأسئلة الأكبر – الأسئلة الوجودية – تُلقي بظلالها. قال لي: “لا أعتقد أننا مستعدون لما نصنعه”. إن الذكاء الاصطناعي المنتشر على نطاق واسع يذكره بالأنواع المجتاحة: “التي تبدأ في مكان ما، ومع مرور الوقت الكافي، تستعمر أجزاءً من العالم بسرعة كبيرة، ولها تأثيرات متتالية على النظم البيئية المختلفة، إذ يجري تهجير بعض الكائنات الحية، وتتغير المناظر الطبيعية أحيانًا، كل ذلك لأن شيئًا ما دخل النظام البيئي”.
وتردد صدى عدم اليقين لدى الآخرين الذين تحدثت معهم، بما في ذلك موظف في إحدى شركات التكنولوجيا الكبرى التي تعمل بنشاط على هندسة نماذج اللغة الضخمة. ويبدو أنهم لا يعرفون بالضبط ما يبنونه، حتى عندما يسارعون إلى بنائه (لم أذكر اسم هذا الموظف والشركة؛ إذ يُحظر على الموظف التحدث عن منتجات الشركة).
قال الموظف: “الخوف الكبير بين الأشخاص الذين يعملون على هذه المنتجات هو أننا ما زلنا لا نعرف الكثير عن كيفية عمل نماذج اللغة الضخمة”. بالنسبة إلى بعض خبراء التكنولوجيا، تمثل فكرة الصندوق الأسود إمكانات لا حدود لها وقدرة توصل الآلات إلى استنتاجات شبيهة بالبشر، رغم أن المشككين يشيرون إلى أن عدم اليقين يجعل معالجة مشاكل سلامة ومواءمة الذكاء الاصطناعي صعبة للغاية مع نمو التكنولوجيا.
كان هناك دائمًا توتر في مجال الذكاء الاصطناعي – وفي بعض النواحي، فإن لحظة الحيرة التي نعيشها ليست شيئًا جديدًا حقًا. لقد اعتقد علماء الكمبيوتر منذ فترة طويلة أننا قادرون على بناء آلات ذكية حقًا، وأن مثل هذا المستقبل أصبح قريبًا جدًا. في ستينيات القرن العشرين، تنبأ هربرت سايمون الحائز على جائزة نوبل بأن “الآلات ستكون قادرة على القيام بأي عمل يستطيع الإنسان القيام به في غضون عشرين عامًا”. وقد أعطت مثل هذه الثقة المفرطة سببًا للمتهكمين لاستبعاد محاضري الذكاء الاصطناعي باعتبارهم علماء الكمبيوتر الذين صرخوا “سنوقظ عواطف الآلات!”
أخبرتني ميلاني ميتشل، الأستاذة في معهد سانتا في، والتي كانت تبحث في مجال الذكاء الاصطناعي لعقود من الزمن، أن هذا السؤال -هل كان الذكاء الاصطناعي قادرًا على محاكاة الفهم البشري- يمثل خلافًا مركزيًا بين الأشخاص الذين يدرسونه، وقالت: “يقول بعض الباحثين البارزين إن هذه الآلات قد تظهر بدايات الوعي وفهم اللغة، في حين أن نظرة الطرف الآخر هي أن هذه المنتجات لا تمثل سوى مجموعة من الصور غير الواضحة ولا تمثل النماذج سوى ببغاوات احتمالية”، إشارةً إلى مصطلح صاغته عالمة اللغة وناقدة الذكاء الاصطناعي إميلي م. بيندر لوصف كيفية قيام نماذج اللغة الضخمة بدمج الكلمات معًا بناءً على الاحتمالات ودون أي فهم (بالإنجليزية: Stochastic Parrots). والأهم من ذلك أن الببغاء الاحتمالية لا تفهم المعنى. وأضافت ميتشل: “من الصعب للغاية وضع هذه الظاهرة في سياق، لأنها ظاهرة لا يمكن للخبراء أنفسهم الاتفاق عليها”.
وتوضح إحدى أوراقها البحثية الحديثة عدم الاتفاق هذا؛ إذ تستشهد بدراسة استقصائية أجريت العام الماضي والتي سألت 480 باحثًا في اللغة الطبيعية إذا كانوا يعتقدون أن “بعض النماذج التوليدية المدربة على النص فقط، مع توفر ما يكفي من البيانات والموارد الحسابية، يمكنها فهم اللغة الطبيعية المعقدة”. اتفق 51% من المشاركين في الاستطلاع مع هذه العبارة ولم يتفق 49% معها. هذا التقسيم يجعل تقييم نماذج اللغة الضخمة أمرًا صعبًا. يركز تسويق GPT-4 على قدرته على الأداء بشكل استثنائي في مجموعة من الاختبارات القياسية، ولكن كما كتبت ميتشل: “عند تطبيق الاختبارات المصممة للبشر على نماذج اللغة الضخمة، فإن تفسير النتائج من الممكن أن يعتمد على افتراضات حول الإدراك البشري والذي قد لا يوجد على الإطلاق في هذه النماذج”. وترى أنه من الممكن ألا تكون معايير الأداء الخاصة لنماذج اللغة الضخمة هذه كافية وأن هناك حاجة إلى معايير جديدة.
هناك الكثير من الأسباب وراء هذه الانقسامات، ولكن السبب الذي لا يزال عالقًا في ذهني هو أن فهم سبب صعوبة وصول نماذج اللغة الضخمة مثل النموذج الذي يدعم ChatGPT إلى استنتاج معين، إن لم يكن ذلك مستحيلًا. يعرف المهندسون ماهية مجموعات البيانات التي يجري تدريب الذكاء الاصطناعي عليها ويمكنهم ضبط النموذج بضبط كيفية ترجيح العوامل المختلفة. يمكن لمستشاري السلامة إنشاء معايير وحواجز حماية للأنظمة للتأكد من أن النموذج لا يساعد شخصًا ما في التخطيط لإطلاق النار في المدارس أو إعطاء وصفة لصنع سلاح كيميائي مثلًا. ولكن، وفقًا للخبراء، فإن التحليل الفعلي لسبب توليد برنامج ما لنتيجة محددة يشبه إلى حد ما محاولة فهم تعقيدات الإدراك البشري: من أين تأتي فكرة معينة في رأسك؟
إن الافتقار الأساسي إلى الفهم المشترك لم يمنع عمالقة التكنولوجيا من المضي قدمًا دون توفير الشفافية القيمة والضرورية حول أدواتهم (انظر، على سبيل المثال، كيف أدى اندفاع مايكروسوفت للتغلب على جوجل في سوق روبوتات البحث إلى تفاعلات وجودية، وحتى عدائية بين الأشخاص والبرنامج، حيث بدا أن روبوت الدردشة الخاص بمتصفح بينغ أصبح متمرداً.) ومع نضوجها، سيجري ترخيص نماذج مثل GPT-4 من شركة OpenAI، وLLaMA من شركة ميتا، وLaMDA من شركة جوجل من عدد لا يحصى من الشركات وسيجري دمجها في منتجاتها. لقد جرى بالفعل ترخيص واجهة برمجة تطبيقات ChatGPT لأطراف ثالثة. وصف لابينز المستقبل بأنه نماذج ذكاء اصطناعي إبداعية “متواجدة عند ملايين العقد والمنتجات المختلفة التي تساعد على إنجاز المهام”.
إن الحماس والترويج للذكاء الاصطناعي يجعل الحديث عما قد يبدو عليه المستقبل القريب أمرًا صعبًا. ومن الممكن أن تتخذ “ثورة الذكاء الاصطناعي” في نهاية المطاف شكل عمليات تكامل عادية على مستوى المؤسسات. يقدم الإعلان الأخير عن الشراكة بين مجموعة Bain & Company الاستشارية وشركة OpenAI معاينة لهذا النوع من التعاون المربح، وإن كان غير إنساني، والذي يَعِد بـ “تقديم فوائد ملموسة عبر وظائف المؤسسات والأعمال – إنشاء محتوى عالي الكفاءة، وتسويق مخصص للغاية، وعمليات أكثر انسيابية لخدمة العملاء”.
وستجلب عمليات التعاون هذه الأدوات التوليدية على غرار ChatGPT إلى عشرات الآلاف من هياكل عمل الشركات. سيواجه الملايين من الأشخاص الذين ليس لديهم اهتمام بالبحث عن روبوت الدردشة في متصفح الويب هذه التطبيقات عبر برامج الإنتاجية التي يستخدمونها كل يوم مثل Slack وMicrosoft Office. أعلنت جوجل هذا الأسبوع أنها ستدمج أدوات الذكاء الاصطناعي التوليدية في منتجات Workspace الخاصة بها جميعها، بما في ذلك Gmail وDocs وSheets، للقيام بأشياء مثل تلخيص سلسلة رسائل بريد إلكتروني طويلة أو كتابة رسالة بريد إلكتروني من ثلاث فقرات بناءً على إشارة كتابية من جملة واحدة (أعلنت مايكروسوفت عن منتج مماثل أيضًا). وقد يتبين أن مثل هذه التكاملات مجرد زينة بحتة، أو أنها قد تعيد ترتيب الآلاف من وظائف العاملين في مجال المعرفة من المستوى المتوسط. من المحتمل ألا تقضي هذه الأدوات على وظائفنا جميعها، ولكنها بدلًا من ذلك تحول الأشخاص إلى مديرين متوسطين لأدوات الذكاء الاصطناعي.
قد تسير الأشهر القليلة المقبلة على هذا النحو: سوف تسمع قصصًا عن موظفي مراكز الاتصال في المناطق الريفية الذين جرى استبدال وظائفهم بروبوتات الدردشة. قد تناقش مجلات مراجعة القانون التأليف المشترك لـ GPT-4 في الملخصات القانونية. ستكون هناك معارك تنظيمية ودعاوى قضائية بشأن حقوق النشر والملكية الفكرية. سوف تنمو المحادثات حول أخلاقيات اعتماد الذكاء الاصطناعي من حيث الحجم إذ إن المنتجات الجديدة تجعل جوانب حياتنا أفضل ولكن أسوأ بدهاء أيضًا. لنفترض، على سبيل المثال، أن ثلاجتك الذكية تحتوي على برنامج روبوت دردشة يعمل بالذكاء الاصطناعي يمكنه إخبارك عندما يفسد الدجاج، ولكنه أيضًا يعطي نتائج إيجابية كاذبة من وقت لآخر ويؤدي إلى إفساد الطعام: هل هذا إيجابي أم سلبي للمجتمع؟ قد ينشأ عن الذكاء الاصطناعي التوليدي فن جميل أو موسيقى رائعة، وسيكون هناك بالتأكيد عمليات تزييف عميق وغيرها من الاستخدامات الفظيعة لهذه الأدوات. وبعيدًا عن هذا النوع من التصريحات الأساسية، لا يستطيع أحد أن يعرف على وجه اليقين ما يخبئه المستقبل. تذكر: “عدم اليقين الجذري”.
ومع ذلك، ستستمر شركات مثل OpenAI في بناء نماذج أكبر يمكنها التعامل مع بارامترات أكثر والعمل بكفاءة أكبر. لم يكن العالم قد تمكن من استيعاب ChatGPT قبل طرح GPT-4 هذا الأسبوع. قام المدير التنفيذي لشركة OpenAI، سام ألتمان، بكتابة منشور على مدونة في الشهر الماضي، مشيرًا إلى الذكاء العام الاصطناعي أو الآلات التي تتساوى مع التفكير البشري. “نظرًا لأن الجانب الإيجابي من الذكاء الاصطناعي العام عظيم جدًا، فإننا لا نعتقد أنه من الممكن أو المرغوب فيه أن يوقف المجتمع تطوره إلى الأبد، وبدلًا من ذلك، يتعين على المجتمع ومطوري الذكاء العام الاصطناعي معرفة كيفية فهمه بشكل صحيح”. مثل معظم المحادثات الفلسفية حول الذكاء العام الاصطناعي، يتأرجح مقال ألتمان بين الفوائد الغامضة لمثل هذه الأداة الجذرية (“توفير قوة مضاعفة كبيرة للدهاء البشري والإبداع”) والمخاطر المشؤومة والغامضة (“سوء الاستخدام والحوادث الجسيمة والاضطراب المجتمعي” الذي قد يكون “وجوديًا”).
وفي الوقت نفسه، ستستمر القوة الحاسوبية التي تتطلبها هذه التكنولوجيا في الازدياد، مع احتمال أن تصبح صاعقة. من المحتمل أن يتطلب إنشاء الذكاء الاصطناعي في نهاية المطاف أجهزة حاسوب فائقة تكلف مبلغًا فائقًا من المال (وفقًا لبعض التقديرات، قد يحتاج برنامج روبوت الدردشة الخاص بمتصفح بينغ إلى ما لا يقل عن 4 مليارات دولار من البنية التحتية لخدمة الاستجابات للمستخدمين جميعهم)، ومن غير الواضح كيف سيجري تمويل ذلك، أو كيف ستُحدد القيود التي قد يجري وضعها في نهاية المطاف للسيطرة على عملية جمع الأموال. لا يمكن لأحد – بما في ذلك ألتمان – أن يُجيب بشكل كامل على سبب كونهم الأشخاص المسؤولين الذين نثق بهم لجلب ما يُقال إنه تكنولوجيا قد تنهي العالم.
بلا شك، كما تشير ميتشل، فإن أساسيات الذكاء العام الاصطناعي التي حلمت بها شركة OpenAI – كيف يمكننا حتى تحديد أو فهم ذكاء هذه الآلة – عبارة عن نقاشات غير محسومة. مرة أخرى، كلما اتسعت فتحة العدسة، تصرفت هذه التكنولوجيا وكأنها وهم بصري، أو حتى سراب. التحديد الدقيق لها أمر مستحيل – كلما قمنا بتصغير الصورة، أصبح من الصعب رؤية ما نبنيه وهل كان يستحق العناء.
لقد أجريت مؤخرًا إحدى هذه المناظرات مع إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل والذي ألف كتابًا مع هنري كيسنغر حول الذكاء الاصطناعي ومستقبل البشرية. قرب نهاية حديثنا، طرح شميدت مثالًا بائسًا لأدوات الذكاء الاصطناعي التي تُدخل فيها رسائل الكراهية من العنصريين، وتعمل بشكل أساسي على تطويرها لتوزيعها على نطاق أوسع. في هذه الحالة، تعمل الشركة التي تقف وراء الذكاء الاصطناعي على مضاعفة القدرة على ارتكاب الشر بشكل فعال من خلال مساعدة المتعصبين في سعيهم، حتى لو لم تكن تنوي إحداث أي ضرر. قال لي شميدت: “لقد اخترت هذا المثال البائس لتوضيح هذه النقطة” المتمثلة في أنه من المهم للأشخاص المناسبين استنفاد الوقت والطاقة والمال لتشكيل هذه الأدوات في وقت مبكر. “السبب الذي يجعلنا نسير نحو هذه الثورة التكنولوجية هو أنها تحسّن الذكاء البشري. لديك شيء يمكنك التواصل معه، ويمكنه تقديم نصيحة دقيقة إلى حد معقول. إنه فعال جدًا، ولكنه سيؤدي إلى أنواع المشكلات جميعها.”
وسألت شميدت هل كان يعتقد حقًا أن مثل هذه المقايضة تستحق العناء. قال: “جوابي هو نعم وبشدة”، لكنني وجدت مبرراته غير مقنعة. “إذا فكرت في أكبر المشكلات في العالم، فستجدها كلها صعبة للغاية – تغير المناخ والمنظمات البشرية وما إلى ذلك. ولذا، أريد دائمًا أن يصبح الناس أكثر ذكاءً. السبب الذي دفعني إلى اختيار مثال بائس هو أننا لم نفهم مثل هذه الأشياء عندما أنشأنا وسائل التواصل الاجتماعي قبل 15 عامًا. لم نكن نعرف ماذا سيحدث مع الانتخابات أو كيف سيتصرف المجانين. لم نفهم عمق الأمر، ولا أريد أن نرتكب الأخطاء نفسها مرة أخرى”.
بعد أن أمضيت العقد الماضي في إعداد تقارير عن المنصات والهياكل والتداعيات الاجتماعية لوسائل التواصل الاجتماعي، لا يسعني إلا أن أشعر أن الأنظمة، على الرغم من كونها بشرية ومعقدة للغاية، لها حجم تكنولوجي مختلف عن حجم وتعقيد نماذج اللغة الضخمة وأدوات الذكاء الاصطناعي التوليدي. لم تكن المشكلات – التي لم يتوقعها مؤسسوها – مشكلات إنسانية جديدة جامحة ولا يمكن تصورها. لقد كانت مشكلات يمكن التنبؤ بها بشكل معقول تتعلق بربط العالم وإضفاء الطابع الديمقراطي على التعبير على نطاق واسع لتحقيق الربح بسرعة البرق. لقد كانت نتاج حفنة صغيرة من الأشخاص المهووسين بما هو ممكن من الناحية التكنولوجية وبأحلام إعادة ضبط المجتمع.
إن محاولة العثور على القياس المثالي لوضع سيناريو لما قد تبدو عليه ثورة الذكاء الاصطناعي دون الوقوع ضحية لأكثر المسوقين أو المنتقدين حماسة هو أمر عديم الجدوى. في محادثاتي، تراوحت المقارنات بين الثورة الزراعية والثورة الصناعية وظهور الإنترنت أو وسائل التواصل الاجتماعي. ولكن، لم تُجرَ مقارنة لا أستطيع التوقف عن التفكير فيها: الانشطار النووي وتطوير الأسلحة النووية.
قد يبدو هذا مبالغًا فيه – لا أبقى مستيقظًا أفكر في أن نظام Skynet سيقتلني، ولا أفهم ما هي التطورات التي يجب أن تحدث مع التكنولوجيا حتى يصبح الذكاء العام الاصطناعي مصدر قلق حقيقيًّا، ولا أعتقد أن نماذج اللغة الضخمة سوف تقتلنا جميعًا. إن المقارنة النووية لا تتعلق بأي نسخة من التكنولوجيا التي لدينا الآن، بل بوعد المستقبل التكنولوجي ومخاوف المؤمنين الحقيقيين والمنظمات حول ما قد يتجه إليه خبراء التكنولوجيا. أفتقر إلى الفهم التقني لمعرفة ما يمكن أن تكون النسخ اللاحقة لهذه التكنولوجيا قادرة عليه، ولا أرغب في أن أكون متحمسًا أو أن أنقل رؤية تخمينية مربحة لشخص ما، كما أنني عالق في الفكرة التي عبر عنها بعض أصحاب الرؤى، والتي مفادها أن التطور المستقبلي للذكاء الاصطناعي قد يشكل تهديدًا بمستوى تهديد الانقراض.
من الواضح أن ChatGPT لا يشبه مشروع مانهاتن – لكنني أتساءل عما إذا كان الشعور الوجودي الذي يتسرب إلى معظم محادثاتي مع الذكاء الاصطناعي يوازي المشاعر التي كانت تراود لوس ألاموس في الأربعينيات. أنا متأكد من أنه كانت هناك أسئلة حينها: “إذا لم نقم ببنائه، ألن يقوم شخص غيرنا بذلك؟ هل سيجعلنا هذا أكثر أمانًا؟ هل ينبغي لنا أن نخاطر لمجرد أننا نستطيع ذلك؟” مثل كل شيء يتعلق بثورة الذكاء الاصطناعي الحالية، ما أجده مهدئًا هو ما أجده مثيرًا للقلق أيضًا. على الأقل كان أولئك الناس يعرفون ما كانوا يبنونه.
(وفق اتفاقية خاصة بين مؤسسة معنى الثقافية، ومنصة ذا أتلانتيك).
تُرجمت هذه المقالة بدعم من مبادرة «ترجم»، إحدى مبادرات هيئة الأدب والنشر والترجمة.
الآراء والأفكار الواردة في المقالة تمثّل وِجهة نَظر المؤلف فقط.