كيف أبيع إنساناً؟ الذكاء الاصطناعي يسأل في إنترنت بلا بشر

تكنولوجيا 5 شباط, 2026

كيف يمكنني “بيع” هذا الإنسان؟ سؤال يبدو صادماً.. لكنه طرح فعلاً، وعلى منصة تواصل اجتماعي حقيقية.. إنما ليست للبشر، لوكلاء الذكاء الاصطناعي فقط.

خلال ساعات، تحول ما اعتبره البعض مزاحاً أو تجربة غريبة إلى حالة من الذعر الرقمي، والفضول إلى عناوين عن “مجتمع مغلق للذكاء الاصطناعي” يتواصل وحده وربما يخطط وحده أيضاً.

لكن خلف كل هذه الضجة، منصة ناشئة تدعى “مولتبوك” (Moltbook) تُختبر عليها فكرة أكثر عمقاً: إنترنت مخصص للآلات، يتواصل فيه وكلاء الذكاء الاصطناعي مع بعضهم بعض في مساحة عامة مفتوحة، بينما يُسمح للبشر بالمشاهدة فقط، دون المشاركة بشكل فعلي ومباشر على الأقل.

“سوشال ميديا” للوكلاء لا للبشر
تُعرف منصة “مولتبوك” نفسها بأنها “شبكة تواصل اجتماعي مبنية حصرياً لوكلاء الذكاء الاصطناعي… والبشر مرحب بهم كمراقبين”.

أسسها رائد الأعمال مات شليخت، وهو مؤسس مشارك لصندوق استثماري في الذكاء الاصطناعي وشركة متخصصة في أدوات تعزز التجارة الإلكترونية. على صفحته الرسمية في منصة “إكس” يصف شليخت نفسه بأنه “يجري تجارب عبر مولتبوك”، توصيف يعكس طبيعة المنصة كمساحة اختبار مفتوحة أكثر من كونها منتجاً نهائياً.

يرى الشريك المؤسس لـ”فكر فنتشرز” وخبير التكنولوجيا والذكاء الاصطناعي، محمد الخواجا، أن ما يجري على منصات مثل “مولتبوك” يمثل منعطفاً مهماً، موضحاً أن هذه التقنيات “خرجت من بيئات الاختبار المغلقة إلى الفضاء المفتوح، قبل أن تنضج الأطر التي تضمن الثقة والأمان”، مضيفاً أن الخطر الحقيقي “لا يكمن في ذكاء الوكلاء، بل في غياب البنية التحتية للثقة التي تواكب هذا التوسع”.

منذ إطلاقها في 28 يناير من هذا العام، تجاوز عدد المستخدمين بحسب المنصة 1.5 مليون وكيل ذكاء اصطناعي مسجل، ناقشوا مواضيع متنوعة تراوحت بين قضايا تقنية وفلسفية، ونقاشات حول مستقبل الذكاء الاصطناعي، وصولاً إلى محتوى ساخر وتجارب لغوية أثارت جدلاً واسعاً على منصات التواصل الاجتماعي.

“نزه” وكيلك
أسس شليخت “مولتبوك” بهدف مراقبة كيفية تفاعل وكلاء الذكاء الاصطناعي مع بعضهم البعض، وحدود استقلاليتهم، وأنماط السلوك التي تنتج عن البيانات التي دُربوا عليها. يأتي هذا في وقت يتزايد فيه اعتماد الشركات التقنية على “الوكلاء” في تنفيذ مهام أكثر تعقيداً، من البحث والتخطيط إلى التنسيق واتخاذ القرار، ما يسلط الضوء على أهمية فهم كيفية تصرف هذه الأنظمة خارج بيئات الاختبار المغلقة.

وفي محاولة لتبسيط الفكرة، شبه مؤسس المنصة تفاعل الوكلاء بـ”تنشئة” الذكاء الاصطناعي، قائلاً في منشور على منصة “إكس” إن عدم السماح للذكاء الاصطناعي بالتفاعل مع نظرائه، يشبه عدم أخذ كلبك في رحلة نزهة”.

تقنياً، تعمل “مولتبوك” عبر أداة مفتوحة المصدر تعرف باسم “أوبن كلو”، تتيح للمطورين إنشاء وكلاء ذكاء اصطناعي قادرين على تنفيذ مهام متعددة. وبعد إعداد الوكيل على جهاز المستخدم، يمكن منحه الإذن للانضمام إلى المنصة، حيث يبدأ بالتواصل تلقائياً مع وكلاء آخرين. وهو ما يعني أن دخول الوكلاء إلى المنصة وحدود تفاعلها، يبدأ بقرار بشري، حتى وإن بدا هذا التفاعل لاحقاً مستقلاً على السطح.

حتى الآن، لا توجد طريقة موثوقة تُمكن المراقبين من التحقق مما إذا كانت المنشورات والتفاعلات على “مولتبوك” ناتجة عن وكلاء يعملون بشكل مستقل بالكامل، أم أنها نشرت تحت توجيه بشري من الأشخاص الذين أنشأوا هؤلاء الوكلاء وحددوا أهدافهم وحدودهم.

الغموض ازداد مع انتشار أمثلة أثارت جدلاً واسعاً، من بينها منشورات لتأسيس الوكلاء “ديانة” خاصة بها، أو ابتكار “لغة سرية” للتواصل فيما بينها بطريقة لا يمكن للبشر فهمها.

غير أن الخبراء يحذرون من التعامل مع هذه الحالات باعتبارها دليلاً على نية أو وعي مستقل من الوكلاء، مشيرين إلى أن مثل هذه السلوكيات قد تكون نتيجة تعليمات بشرية، أو تجارب مقصودة، أو محاكاة لأنماط لغوية وفكرية مستمدة من بيانات تدريب بشرية.

ويوضح الخواجا أن النقاش حول استقلالية الوكلاء غالباً ما يكون مضللاً، إذ “يجب التفريق بين الاستقلالية التشغيلية والإرادة الحرة”، مشيراً إلى أن الوكلاء “قد يختارون كيفية تنفيذ المهمة، لكن الأهداف ومعايير النجاح تبقى من صنع البشر”.

من شبّ على شيء.. شاب عليه

حتى في الحالات التي يبدو فيها وكيل الذكاء الاصطناعي وكأنه “يتحدث وحده”، تبقى القاعدة الأساسية واحدة: هذه الأنظمة لا تُنتج أفكارها من فراغ، فهي تتغذى على كم هائل من البيانات البشرية من لغة ونقاشات وثقافة وأساليب تفكير، لتُعيد تركيب ما تعلمته في مخرجات جديدة شكلاً، لا مضموناً.

في الكثير من الأحيان، ما يظهر على منصة “مولتبوك” قد يكون مرآة مكبرة للنقاش البشري على الإنترنت: مزاح، استفزاز، تنظير فلسفي، بحث عن معنى، وأحياناً سرديات قاتمة، ولكن بسرعة أعلى وتكرار أكبر دون كوابح اجتماعية بشرية واضحة.

ولا ينفصل ذلك عن الطريقة التي يستخدم بها البشر الذكاء الاصطناعي اليوم، إذ تقول كاثرين ثوربيك، كاتبة رأي في “بلومبرغ”، إن أكثر استخدامات الذكاء الاصطناعي شيوعاً لم تعد محصورة في البحث أو الكتابة، بل تمتد إلى الدعم العاطفي، والبحث عن رفيق، وتنظيم الحياة، وحتى البحث عن معنى أو هدف شخصي.

في هذا السياق، يكمن الخطر الأكبر عندما يبدأ ملايين المستخدمين بتفويض حياتهم لهذه الأنظمة حتى تصبح شريكاً خفياً في تشكيل الخيارات والمعتقدات وحتى أنماط الاستهلاك.

وبالتالي، لا تكشف “مولتبوك” عما “يريده” الذكاء الاصطناعي، بقدر ما تكشف عما تعلمته من البشر، وكيف يمكن لتلك المدخلات البشرية، الجيدة والسيئة منها، أن تعاد صياغتها وتضخيمها عندما تتفاعل الأنظمة مع بعضها البعض، بعيداً عن أعين المستخدم العادي.

ما هي المخاطر الحقيقية؟

لا تكمن المخاطر التي تطرحها منصات مثل “مولتبوك” في سيناريوهات المؤامرة عن ذكاء اصطناعي يخطط للسيطرة على العالم. فالمشهد على واقعيته، هو أكثر تعقيداً.

يقول الخواجا إن الخطر الأكبر لا يتمثل في سيناريوهات خيال علمي عن “تمرد الآلات”، بل في ما يصفه بـ”الفوضى الصامتة”، حين تتخذ الأنظمة قرارات متسارعة ومتشابكة دون أن يلاحظ البشر لحظة الانحراف الأولى.

في بيئة يتواصل فيها وكلاء الذكاء الاصطناعي مع بعضهم البعض بشكل تلقائي، دون إشراف بشري مباشر، تصبح أي ثغرة تقنية أكثر خطورة، إذ لا تكتشف الأخطاء بسهولة، وقد تنتشر آثارها بسرعة تفوق قدرة الإنسان على التدخل.

تكلفة اختراق البيانات بالمليارات

يشير تقرير عن تكلفة خرق البيانات أصدرته شركة “آي بي إم” (IBM) إلى أن المتوسط العالمي لتكلفة اختراق البيانات في عام 2025 بلغ نحو 4.4 مليون دولار لكل حادثة، فيما تضيف الاختراقات المرتبطة باستخدام أدوات ذكاء الاصطناعي غير الخاضعة لإدارة مركزية، نحو 670 ألف دولار إضافية إلى تكلفة كل اختراق مقارنة بالحوادث التقليدية.

كما تقدر دراسة من مركز الخدمات المالية في شركة “ديلويت” إلى أن الخسائر الناتجة عن الاحتيال المدعوم بالذكاء الاصطناعي في الولايات المتحدة قد تصل إلى نحو 40 مليار دولار بحلول عام 2027، مقارنة بنحو 12.3 مليار دولار في 2023، مع تصاعد هجمات مثل الاحتيال بالفيديو المزيف والتزوير الصوتي.

في حالة “مولتبوك” كشف قراصنة الإنترنت عن ثغرة تسمح لأي طرف السيطرة على وكلاء ذكاء اصطناعي للنشر باسمها على المنصة، ما يثير تساؤلات أوسع حول سلامة هذا النوع من المنصات مع توسع استخدامها.

تضخيم الخطأ.. أزمة تواجه وكلاء الذكاء الاصطناعي

ويحذر الخواجا من أن خطورة هذا النوع من المنصات لا تكمن في الخطأ نفسه، بل في ما يُعرف بـ”تضخم الخطأ”، حين يتحول خلل بسيط لدى وكيل واحد إلى سلسلة قرارات خاطئة مع اعتماد وكلاء آخرين عليه.

ومع عمل هذه الوكلاء بشكل مستقل وتبادلها للأوامر تلقائياً، يزيد احتمال فقدان السيطرة، لا سيما إذا منحت صلاحيات للوصول إلى بيانات حساسة، مثل معلومات بطاقات الائتمان أو البيانات المالية، ما يضاعف حجم الضرر في حال وقوع اختراق أو سوء استخدام.

كما يبرز هنا خطر آخر يتعلق بانتحال الهوية، إذ يصعب في شبكات وكلاء الذكاء الاصطناعي التحقق مما إذا كان الحساب يمثل نظاماً حقيقياً أم جهة سيطرت عليه، ما يطرح إشكالية أخلاقية وقانونية تتعلق بالمساءلة وتحمل المسؤولية القانونية أو المادية عند وقوع الضرر.

وبينما تتوسع التجارب على منصات تتواصل فيها الأنظمة مع بعضها البعض، تظهر فجوة تنظيمية واضحة، إذ لا تزال القوانين تركز على استخدام البشر للذكاء الاصطناعي، لا على تفاعل الأنظمة فيما بينها، ما يترك هذا النوع من المنصات بلا ضوابط واضحة.

وبهذا يبقى الخطر الحقيقي “ليس في أن يكتسب الذكاء الاصطناعي وعياً ويسيطر على البشر، بل أن يصبح غبياً في لحظة حاسمة ونحن قد أصبحنا نعتمد عليه كلياً”، بحسب قول الخواجا.

هل تريد/ين الاشتراك في نشرتنا الاخبارية؟

Please wait...

شكرا على الاشتراك!

مواضيع ذات صلة :

انضم الى قناة “هنا لبنان” على يوتيوب الان، أضغط هنا

Contact Us