تنتج المولّدات المبنيىة على الذّكاء الاصطناعيّ محتوًى مشابهًا من حيث الجودة لمحتوى البشر. إنّ المحتوى المكتوب، الصّور، الصّوت ومقاطع الفيديو الّتي تستطيع أحدث المولّدات إنتاجها تصل إلى جودة عالية جدًّا، وتظهر الدّراسات الاستقصائيّة أنّ النّاس يجدون صعوبة في التّمييز بين العمل البشريّ أو الاصطناعيّ.
تمكّن مولّدات النّصوص طلّاب المدارس وطلّاب الدّراسات العليا من تخطّي مهامّ الكتابة أو تقليل الجهد المبذول في كتابتها. تساعد المولّدات مجموعة متنوّعة من المؤسّسات في إدارة الاتّصالات المكتوبة مع العملاء والمرضى – وليس بالضّرورة بشفافيّة فيما يتعلّق بحقيقة أنّ التّواصل ليس مع شخص، بل مع الذّكاء الاصطناعيّ. تنتج مولّدات الصّور صورًا فنّيّة حازت على جوائز.
حتّى في المجتمع العلميّ، هناك خوف من أن يستخدم الباحثون مولّدات الصّور لتزييف النّتائج التّجريبيّة والتّسلّل إلى المجلّات العلميّة دون عائق. في بعض الحالات الّتي ذكرناها هنا، يعدّ استخدام الذّكاء الاصطناعيّ نوعًا من الاختصار الموجود في “المنطقة الرّماديّة”، بينما في حالات أخرى يعدّ استخدام منتجات الذّكاء الاصطناعيّ الموثوقة بمثابة احتيال حقيقيّ بالفعل.
تجبرنا الجودة العالية لمنتجات المولّدات على مواجهة تحدّيات جديدة في مجال نشر المعلومات الكاذبة، وتثير تساؤلات حول ملكيّة الأعمال الّتي تتمّ في المولّدات، ومشروعيّة تقديم مثل هذا العمل إلى جانب الأعمال البشريّة. ومن أجل تقييم حجم الظّاهرة والتّعامل معها، لا بدّ من معرفة كيفيّة تحديد: من يقف وراء المحتوى، الذّكاء البشريّ أم الذّكاء الاصطناعيّ؟

ما هو الموازي للعلامة المائيّة أو البيانات الوصفيّة في النّصّ؟ البحث عن العلامة المائيّة على ورقة المائة دولار | Melnikov Dmitriy, Shutterstock
ختم مخفيّ
إنّ النّقاش العامّ حول هذا الموضوع، إلى جانب الاعتراف بالحاجة إلى القضاء على المخاطر المرتبطة بالمحتوى الاصطناعيّ الموثوق منه، يشجّع الشّركات الّتي تصنع المولّدات على وضع علامات على منتجات المولّدات. يمكن للشّركات إخفاء التّوقيع في المخرجات الّذي قد يفضح هويّة المنتج الاصطناعيّ.
على سبيل المثال، في الصّور الّتي ينتجها مولّد الصّور DALL-E3، يتمّ تضمين البيانات الوصفيّة، أي المعلومات المرفقة بالصّورة، ممّا يشير إلى أصلها. وتعمل شركة ميتا (صاحبة شركة فيسبوك) بطريقة مماثلة لتسهيل التّعرّف إلى الصّور الّتي تنتجها مولّداتها. بالإضافة إلى ذلك، هي تشجّع المستخدمين على التّصرّف بشفافيّة والإشارة إلى مصدر الإبداع عندما يقومون بتحميل الصّور الّتي تمّ إنشاؤها بمساعدة منشئ آخر على شبكة التّواصل الاجتماعيّ، والّذي لا يضع توقيعًا على أعماله.
من السّهل إضافة علامة تعريفيّة على الصّورة، وذلك باستخدام أدوات يصعب حذفها مثل البيانات الوصفيّة أو العلامة المائيّة. من ناحية أخرى، في المحتوى المكتوب يكون منع النّسخ والتّزوير أكثر صعوبة. عادةً ما يكون من السّهل جدًّا نسخ النّصّ نفسه فقط، والتّخلّص من أيّة علامة تعريفيّة حاولوا إرفاقها معه.

تعدّ إضافة توقيع مخفيّ أو ظاهرة إلى المنتج الطّريقة الأكثر شفافيّة والّتي تتيح لنا تحديد هويّة المحتوى الّذي تمّ إنشاؤه بواسطة الذّكاء الاصطناعيّ. فنّانة توقّع على لوحة رسمتها | silverkblackstock, Shutterstock
تحديد المحتوى بطريقة المفاتيح
اِقترح باحثو Google DeepMind، قسم تطوير الذّكاء الاصطناعيّ في Google، هذا العام طريقة جديدة لإضافة ختم مخفيّ في النّصّ. هذا الختم سيكون مخفيًّا للمستخدمين، لذلك سيكون التّلاعب به أكثر صعوبة، لكنّ أولئك الّذين يعرفون مكان اختبائه سيجدونه بسهولة. لفهم الطّريقة، سنصف بإيجاز كيفيّة عمل مولّدات النّصّ.
التّوجّه الأساسيّ لمولّدات النّصّ القائمة على الذّكاء الاصطناعيّ هو البناء المستمرّ للمحتوى المكتوب. خطوة بخطوة، اِستنادًا إلى النّصّ القائم، يقوم المولّد بربط الجزء التّالي من النّصّ. يتكوّن هذا الجزء من النّصّ عادةً من بضعة أحرف، وليس كلمة كاملة. عندما يكون المولّد على وشك إخراج الجزء التّالي من النّصّ، فإنّه يشير إلى قائمة الاستمرارات المحتملة، ويحسب لكلّ منها احتمال أن تكون هذه القطعة فعلًا استمرارًا للمخرجات.
تعتمد حسابات الاحتمالات هذه على عمليّات التّدريب والتّعلّم الّتي شكّلت المولّد، وهي تختلف من مولّد إلى آخر. هناك عدة إستراتيجيّات لاختيار القطعة الّتي ستكمل النّصّ. أحدها هو ببساطة اختيار القطعة الأكثر احتماليّة – القطعة ذات الاحتماليّة الأعلى – وتجاهل القطع الأخرى. هناك طريقة أخرى وهي أخذ جميع الاستمرارات الممكنة، وإعطاء كلّ منها وزنًا نسبيًّا وفقًا لاحتمالها، ثمّ إجراء قرعة بينهما. هنا يتمّ إضافة عنصر العشوائيّة إلى العمليّة. بالطّبع، هناك أيضًا طرق أخرى.
لإضافة توقيع مخفيّ إلى النّصّ، يقترح الباحثون من Google دمج مفتاح توقيع معيّن في عمليّة اختيار الجزء التّالي من النّصّ. في كلّ خطوة، من قائمة الخيارات الخاصّة بالجزء التّالي من النّصّ، سيختار المولّد أحد الخيارات باستخدام مجموعة من الاحتمالات الّتي حسبها بنفسه للعلامة المشتقّة من المفتاح.
تضمن هذه الطّريقة وجود مفتاح مشفّر ضمن اختيار الكلمات للمولّد. عرض الباحثون آليّة تتيح تحليل النّصّ وتقييم ما إذا كان هذا المفتاح مشفّرًا فيه. نظرًا لطبيعتها الاحتماليّة، فإنّ هذه الطّريقة ليست قاطعة، وقد تكون “ملوّثة” أيضًا إذا قام المستخدم بتعديل النّتيجة بشكل بارز، على سبيل المثال باستخدام نظام ذكاء اصطناعيّ آخر.
طريقة التّوقيع هذه ممكنة فقط إذا كانت الشّركة الّتي أنتجت المولّد تريد التّوقيع على المنتج. أعلنت شركة OpenAI، الشّركة المصنّعة لروبوت مولّد النّصوص Chat-GPT، أنّها طوّرت طريقة التّوقيع الخاصّة بها، لكنّها تواصل البحث عن بدائل. أحد الاعتبارات الّتي قدّمتها الشّركة هو الخوف من أنّ عقب وجود التّوقيع الّذي يسمح بتحديد النّصوص الّتي ينتجها المولّد، ستتطوّر الأحكام المسبقة حول الاستخدام من قبل بعض الأشخاص أو المجموعات السّكّانيّة للذّكاء الاصطناعيّ الإبداعيّ كوسيلة مساعدة في الكتابة.
بالإضافة الى القلق على المستخدمين، فإنّ مثل هذه الوصمة يمكن بالطّبع أن تضرّ أيضًا بالشّركة المصنّعة للمولّد: ذكرت صحيفة وول ستريت جورنال أنّ شركة OpenAI أجرت استطلاعًا في عام 2023 لاختبار درجة دعم المستخدم لآليّة التّوقيع هذه. أجاب 30 في المائة من المشاركين أنّهم سيقلّلون من استخدام Chat-GPT إذا تمّ استخدام هذا التّوقيع.

لن يكون هذا الختم المخفيّ ظاهرًا، لذلك سيصعب التّلاعب به، لكن من يعرف مكان الختم سيجده بسهولة. اِمرأة أمام شاشة تكتب رسالة توجيه للمولّد | AI Collagery, Shutterstock
لنسأل المولّد
لا يهتمّ صانعو المولّدات دائمًا بوضع توقيع على منتجهم، وحتّى عند وجود مثل هذا التّوقيع، لا يزال من الصّعب دائمًا التّعرّف إليه، أو هناك من يقوم بإزالته عمدًا. لذلك، هناك حاجة إلى طرق أخرى لتحديد منتجات الذّكاء الاصطناعيّ. يركّز أحد اتّجاهات البحث على الطّريقة الّتي يقوم بها المولّد بربط الأجزاء القصيرة من النّصّ بالنّصّ الكامل: فهو يختار في كلّ خطوة الجزء المحتمل من النّصّ مع أعلى احتمال في نظره، وأحيانًا مع إضافة بعض العناصر العشوائيّة. لذلك، إنّ أيّة مجموعة أخرى لم يخترها النّموذج سيكون لها احتماليّة أقلّ وفقًا لحسابات النّموذج. وعلى العكس من ذلك، لن يختار البشر عادة التّركيبة الأكثر احتماليّة في نظر المولّد عند كتابة النّصّ بأنفسهم. وبالنّظر إلى هذه الفجوة، اقترحت مجموعة من الباحثين من جامعة ستانفورد في الولايات المتّحدة أداة قد تمكّن فحص احتماليّة إنتاج نصّ معيّن بواسطة نموذج معيّن، بشرط أن تكون لدينا إمكانيّة الوصول إلى عمليّة حساب احتمالاته.
لنأخذ GPT-3 على سبيل المثال، يقترح الباحثون أخذ النّصّ الّذي نريد تحديد ما إذا كان قد كتبه المولّد، وإنشاء نسخ إضافيّة منه مع تغييرات طفيفة. على سبيل المثال، بدلًا من الجملة “لا يستخدم كتّاب معهد ديفيدسون الذّكاء الاصطناعيّ في كتابة المقالات” يمكنك فحص بدائل مثل “لا يستخدم كتّاب معهد ديفيدسون لتعليم العلوم الذّكاء الاصطناعيّ في كتابة المقالات”، أو “يستخدم كتّاب معهد ديفيدسون الذّكاء الاصطناعيّ في كتابة المقالات” أو “لا يستخدم كتّاب معهد ديفيدسون قلم رصاص لكتابة المقالات”.
الآن سوف نفحص ما هو الاحتمال لكلّ جملة من الجمل في GPT-3. إذا كان احتمال الجملة الأصليّة أعلى من البدائل، فمن المرجّح أن يكون GPT-3 هو المؤلّف. إذا لم يكن الأمر كذلك، فمن المرجّح أنّه ليس هو الّذي يقف وراء النّصّ، لأنّ بنيته لا تتطابق مع استراتيجيّة توليد الجملة بواسطة GPT-3. يمكن أن يكون الكاتب الحقيقيّ شخصًا، أو مولّدًا آخر يبني الجمل بشكل مختلف.
قام باحثون من جامعة هارفارد في الولايات المتّحدة، بالتّعاون مع قسم الأبحاث في شركة IBM، بتطوير أداة تتيح تحليل احتمالات محتوى الجملة للنّموذج. بالنّظر إلى نصّ معيّن، تحدّد الأداة كلّ كلمة بلون يشير إلى ترتيبها وفقًا لاحتمالات النّموذج لتلك الجملة. هذه هي الطّريقة الّتي يتمّ بها إنشاء التّعرّف البصريّ إلى النّصوص “المزيّفة”: سوف يشكّ القرّاء الّذين يرون تسلسلًا طويلًا مرسومًا بتصنيف احتماليّة عالية، في أنّه تمّ إنشاؤه بواسطة الذّكاء الاصطناعيّ، وسوف يقرؤونه بأعين ناقدة.
أظهر استطلاع أجراه الباحثون أنّ مجرّد تسليط الضّوء على أجزاء من النّصّ بناءً على الاشتباه (الشّكّ) في أنّها من إنتاج مولّد معيّن يشجّع على قراءة أكثر نقديّة، ويساعد القرّاء على تحديد ما إذا كان النّصّ مكتوبًا بواسطة إنسان أو آلة. إلّا أنّ هذا الاختبار يركّز على مولّد معيّن ويتطلّب، كما ذكرنا، الوصول إلى كيفيّة حساب احتمالاته.

صعوبة عرض التّفاصيل المعقّدة، مثل الأصابع، في صور جسم الإنسان. صورة لأصابع يدين من مولّد الصّور
أطباع اصطناعيّة
عند انعدام وجود طريقة لمعرفة كيفيّة حساب الاحتمالات، يحاول الباحثون البحث عن الآثار الّتي تركتها المولّدات على السّطح. إحدى الطّرق للقيام بذلك هي تحديد العيوب المميّزة لبعض منتجات المولّدات – وهو نوع من “توقيع الفشل“.
يستصعب مولّدو الصّور احيانًا عرض تفاصيل معقّدة في صور الجسم البشريّ، لذلك قد يقومون بإنشاء شخصيّات بعدد غير عاديّ من الأيدي أو الأصابع. وجد الباحثون أنّ الانعكاسات في العيون في صور الوجه الّتي أنشأها المولّد غير متناسقة، وتُظهر نمط انعكاس مختلف في كلّ عين، على عكس انعكاسات العين الطّبيعيّة. علاوة على ذلك، يجد منشئو الصّور صعوبة في إضافة تعليق داخل الصّورة. يتميّز أسلوب الكتابة لمولّدات النّصّ أيضًا بخصائص مألوفة، مثل المبالغة في الكتابة الرّسميّة.
أشارت تحليلات النّصوص الّتي أنشأها الذّكاء الاصطناعيّ أيضًا إلى وجود اختلافات دلاليّة بين النّصوص الّتي صنعها الإنسان أو الّتي أنشأها الذّكاء الاصطناعيّ. نادرًا ما يستخدم المولّد المرادفات مقارنة بالبشر، ويكتب عددًا أقلّ من الأسماء والصّفات، ويفضّل استعمال الأفعال والضّمائر أكثر. يعتبر النّصّ البشريّ أكثر تنوّعًا من النّاحية البلاغيّة والدّلاليّة، ويميل البشر إلى استخدام كلمات أقلّ شيوعًا من تلك الّتي يختارها المولّد الاصطناعيّ.
يشير الباحثون أيضًا إلى مشكلة التّماسك الدّاخليّ لدى المولّدات، الّذي يظهر بالفقرات الّتي ينتجونها والّتي قد تبدأ بفكرة واحدة فتتشعّب إلى فكرة أخرى. يقترح الباحثون تحليل النّصوص وفقًا لمجموعة من هذه السّمات الدّلاليّة كأساس للتّصنيف بين النّصوص الّتي ينتجها الذّكاء الاصطناعيّ والنّصوص الّتي كتبها البشر.

مشكلة في عرض النّصّ داخل الصّورة. محاولة من منشئ صور ميدجورني Midjourney لإنشاء لافتة تحتوي على النّصّ “best brasserie paris”
الحسم بيد الذّكاء الاصطناعيّ
من المحتمل أن يؤدّي التّطوّر السّريع للمولّدات والاستثمار الكبير في تحسينها إلى تغييب هذه الخصائص المميّزة، عاجلًا أم آجلًا. ولكن إذا لم تعد العين البشريّة قادرة على تمييز هذه السّمات، فلا يزال بإمكاننا محاولة التّعرّف إليها بمساعدة الحاسوب.
للحسم في مسألة أصل المحتوى المكتوب أو الصّورة، نريد نظامًا يمكن إدخال المحتوى فيه وتصنيفه إلى إحدى المجموعتين: أعمال من صنع الإنسان أو من صنع الذّكاء الاصطناعيّ. سوف يكون من الممكن تنفيذ مهامّ التّصنيف هذه بمساعدة الذّكاء الاصطناعيّ المدرّب لهذا الغرض.
يُطلق على النّظام القائم على الذّكاء الاصطناعيّ والّذي يؤدّي بعض المهامّ اسم نموذج الذّكاء الاصطناعيّ. سوف يتمّ تدريب النّموذج الّذي تتمثّل مهمّته في تصنيف المحتوى إلى إحدى الفئتين على قاعدة بيانات كبيرة من النّصوص أو الصّور الّتي تمّ تصنيفها مسبقًا على أنّها منتجات ذكاء اصطناعيّ ومنتجات بشريّة، وسوف يتعلّم التّعرّف إلى الاختلافات بين الفئتين. بعد عمليّة التّدريب، سوف يكون النّموذج قادرًا على تلقّي معلومات جديدة (مدخلات) وتحديد لأيّ من المجموعتين تعود: المنتجات البشرية أو منتجات الذّكاء الاصطناعيّ.
وزّعت شركة OpenAI نموذجًا هدفه التّمييز بين النّصوص المكتوبة بواسطة البشر وتلك المكتوبة بالنّموذج اللّغويّ الكبير GPT-2 الّذي صدر عام 2019. وقد تمّ تدريب النّموذج المصنّف على النّصوص المكتوبة بواسطة GPT- 2 على قاعدة بيانات للنّصوص الّتي صنعها الإنسان والّتي تمّ استخدامها لتدريب GPT-2 الأصليّ. هذا المصنّف متاح للجمهور على الإنترنت. عند تقديم النّصّ، يوفّر المصنّف درجة رقميّة تتراوح بين 0 و100 تعبّر عن احتماليّة أن يكون النّصّ مزيّفًا، أي مكتوبًا بواسطة الذّكاء الاصطناعيّ. يكون التّصنيف أكثر دقّة كلّما كانت النّصوص أطول، ويتمّ تكييفه بشكل خاصّ لتحديد منتجات GPT-2.
لقد تحسّنت مولّدات النّصوص منذ عام 2019، وانتقل المستخدمون منذ فترة طويلة إلى نماذج أكثر تقدّمًا من GPT-2. لذلك قامت شركة Open AI بتوزيع مصنّف مصمّم لتحديد المحتوى الّذي تنتجه المولّدات الأحدث، ولكن بعد وقت قصير أزالت المنشور بسبب العديد من الادّعاءات بأنّ الأداء غير مرضٍ. وذكرت الشّركة أنّه عندما تمّ اختبار المصنّف على قاعدة بيانات نصّيّة معيّنة، نجح في تحديد ما يزيد عن ربع (26 في المائة) من النّصوص الّتي تمّ إنشاؤها بواسطة الذّكاء الاصطناعيّ، وفي المقابل، اعتقد خطأً أنّ تسعة في المائة من النّصوص التي كتبها البشر تم إنشاؤها في الواقع بواسطة الذّكاء الاصطناعيّ.

الشّركات الّتي تطوّر الذّكاء الاصطناعيّ لديها الآن أيضًا مصلحة ذاتيّة في النّجاح في فهرسة المعلومات الّتي أنشأها الذّكاء الاصطناعيّ، ولكن هذه مهمّة صعبة. خدمة المساعدة في الكتابة “نحويّ” Grammarly | المصدر: dennizn, Shutterstock
معايير مزدوجة
تقدم خدّمة المساعدة في الكتابة Grammarly إمكانية تحرير النّصّ وإنتاجه باستخدام الذّكاء الاصطناعيّ، ولكنّها توفّر أيضًا أداة تختبر مدى تدخّل الذّكاء الاصطناعيّ في الكتابة. ولكن كما يمكن تعلّمه من فشل المصنّف المتقدّم لـِ Open AI، وانسحابه من فكرة استخدام ختم نصّيّ، لا تزال هناك العديد من المطبّات في الطّريق. بالإضافة إلى غياب الشّفافيّة لدى العديد من الشّركات العاملة في هذا المجال، إلى جانب المصالح الاقتصاديّة وغياب الرّقابة، هناك أيضًا صعوبات عمليّة أخرى يصعب جدًّا إيجاد حلّ لها.
إحدى المشاكل الّتي تتطوّر أمام أعيننا هذه الأيّام تنبع حقًا من حقيقة أنّ المولّدات تحتاج إلى قواعد بيانات حقيقيّة للتّعلّم منها. ولكن مع تزايد استخدام الذّكاء الاصطناعيّ، يتمّ دمج منتجاته في المزيد والمزيد من قواعد البيانات، وكما ذكرنا، من الصّعب جدًّا التّعرّف إليها إذا لم يتمّ دمج التّوقيع فيها. وبالتّالي، قد تصبح هذه المجمّعات نفسها “ملوّثة” بالمعلومات النّاتجة عن الذّكاء الاصطناعيّ. لذا، إنّ الشّركات الّتي تعمل على تطوير الذّكاء الاصطناعيّ لديها الآن أيضًا مصلحة ذاتيّة في نجاح فهرسة المعلومات الّتي أنشأها الذّكاء الاصطناعيّ، لكن هذه مهمّة صعبة.
لم يعد اتّخاذ القرار بشأن حقيقة المنتج مهمّة واضحة أو بسيطة. لقد عبرت المرحلة التي أنتج فيها الذّكاء الاصطناعيّ محتوى ضئيلًا وواضحًا بسرعة كبيرة. لتحديد النّصوص الّتي تم إنشاؤها آليًّا بشكل صحيح، تحتاج إلى فحص أجزاء النّصّ لأطول فترة ممكنة. يشكّل تزوير النّصوص القصيرة تحدّيًا كبيرًا آخر لقدرات الكشف لدينا، ولا تزال الأبحاث حول هذا الموضوع نشطة ومتطوّرة وربّما لن تصل إلى مرحلة الاستنفاد ما دامت منتجات الذّكاء الاصطناعيّ مستمرّة في التّغيّر والتّطوّر.
إذا أدّت المناقشات العامّة والجهود التّنظيميّة إلى خلق ضغوط كافية على مطوّري الذّكاء الاصطناعيّ للتّوقيع على منتجاتهم بطريقة علنيّة أو مخفيّة، فإنّ الحلّ سيكون أسهل. تثبت الشّركات الرّائدة في هذا المجال أنّ هذه ليست بالضّرورة العقلية الموجِّهة التي تقودها، على الرّغم من أنّها تحاول تقديم مظهر التّعاون. فالنّقد والتّشكيك الشّخصيّ كانا ولا يزالان حتّى الآن أداة لا غنى عنها لاستهلاك المحتوى بجميع أنواعه، خاصّة إذا كان أصله ليس بشريًّا.