عام الانصهار: أبرز الاتجاهات التقنية في 2025

ADMIN

Administrator
طاقم الإدارة
لم يكن عام 2025 مجرد محطة زمنية إضافية في المسار التصاعدي للتكنولوجيا، بل شكَّل نقطة تحول نوعية يمكن توصيفها بعام الانصهار الكبير؛ العام الذي بدأت فيه الحدود الفاصلة بين الإنسان والآلة في التلاشي تدريجياً، بين القرار البشري والتنفيذ الآلي، وبين الواقع الفيزيائي والتمثيل الرقمي، قائمة بالمعنى التقليدي الذي حكم العقود السابقة.

في هذا العام، لم تعد التكنولوجيا تعمل على هامش النشاط البشري، ولا كأداة مساعدة تُستدعى عند الحاجة، بل انتقلت إلى موقع الشريك الفعلي في التفكير، والتخطيط، والتنفيذ، والمراقبة.

خلال العقد الماضي، ساد خطابٌ تقني يختزل جوهر الثورة الرقمية في فكرة “البيانات بوصفها النفط الجديد”، حيث تمحورت القيمة حول جمع البيانات، تخزينها، وتحليلها.

غير أن عام 2025 دشَّن انتقالاً أعمق وأكثر جذرية: من اقتصاد البيانات إلى اقتصاد الاستقلالية الذكية.

فالقيمة لم تعد كامنة في البيانات ذاتها، بل في الكيانات القادرة على تحويل تلك البيانات إلى قرارات وسلوكيات ذاتية، تُنفَّذ في الزمن الحقيقي، وبوعي سياقي يتجاوز ما كان ممكناً حتى وقت قريب.

إذ لا نتحدث هنا عن أدوات ذكاء اصطناعي تُنفِّذ أوامر نصية أو تولّد محتوى استجابة لمدخلات بشرية، بل عن أنظمة رقمية مستقلة نسبياً، قادرة على فهم الأهداف، تفكيكها إلى مهام، اتخاذ قرارات مرحلية، والتفاعل مع أنظمة أخرى دون إشراف مباشر.

هذا التحول غَيَّر جذرياً طبيعة العلاقة بين الإنسان والتكنولوجيا، وطرح أسئلة وجودية ومؤسسية حول معنى العمل، والقرار، والمسؤولية، وحتى السيادة.

كما تزامن هذا التحول مع نضوج غير مسبوق في البنية التحتية للحوسبة، فقد تلاقت الطفرات في قدرات المعالجة، وتطور نماذج الذكاء الاصطناعي القائمة على الاستدلال المنطقي، مع توسُّع هائل في شبكات الاتصال، ومراكز البيانات، ومصادر الطاقة المتقدمة.

ونتيجة لذلك، لم تعد تطبيقات الذكاء الاصطناعي محصورة في مجالات استهلاكية أو تجريبية، بل اخترقت قطاعات حساسة مثل الطاقة، والصناعة الثقيلة، والطب، والأمن، والحوكمة.

في هذا السياق، لم يعد ممكناً النظر إلى أحداث 2025 بوصفها سلسلة ابتكارات منفصلة، بل كملامح تحوُّل بنيوي شامل يعيد تشكيل بنية الاقتصاد العالمي، ونمط التنظيم المؤسسي، ومفهوم الوظيفة، وحدود الدولة الرقمية.. من وكلاء الذكاء الاصطناعي المستقلين، إلى الحوسبة الكمية، مروراً بالروبوتات البشرية، والواجهات الدماغية، والميتافيرس الصناعي، وصولاً إلى معارك الهوية الرقمية والأمن السيبراني؛ تتكشَّف صورة عالم دخل فعلياً مرحلة “ما بعد الأدوات”.

في هذا المقال، لا نسعى إلى التنبؤ بالمستقبل، بل إلى تفكيك اللحظة، ورصد أبرز المحطات التقنية التي شكّلت عام 2025، وتحليل دلالاتها العميقة، لا بوصفها تطورات تقنية فحسب، بل كعوامل إعادة تشكيل للحضارة الإنسانية نفسها.

1s2dtl0h7aipYWHfKVC7cUA


صعود وكلاء الذكاء الاصطناعي المستقلين (AI Agents)


حتى عام 2024، كان التفاعل مع أنظمة الذكاء الاصطناعي يقوم في جوهره على نموذج بسيط: الأمر ثم الاستجابة.

يكتب المستخدم تعليمات نصية، وتقوم النماذج اللغوية الكبيرة (LLMs) بإنتاج مخرجات لغوية أو برمجية بناءً على احتمالات إحصائية محسّنة.

ورغم الإبهار الذي أحدثته هذه النماذج، فإنها ظلَّت -من حيث البنية- أدوات تفاعلية محدودة، عاجزة عن العمل خارج إطار الجلسة النصية أو دون تدخل بشري متواصل.

حتى جاء عام 2025 ليُمثِّل قطيعة حقيقية مع هذا النموذج، عبر الانتقال من “تلقين الآلة” إلى توجيهها بالأهداف، حيث ظهر ما يُعرف بوكلاء الذكاء الاصطناعي المستقلين (Autonomous AI Agents)، وهي أنظمة برمجية لا تكتفي بفهم الطلب، بل تقوم بتحليله إلى أهداف فرعية، وتحديد الموارد اللازمة، ثم تنفيذ سلسلة من الأفعال المترابطة عبر الزمن دون إشراف مباشر من المستخدم.

الفرق الجوهري أن الوكيل لا ينتظر أمراً لكل خطوة، بل يمتلك منطق تخطيط (Planning) وتنفيذ (Execution Loop) يجعله أقرب إلى “موظف رقمي” لا “أداة”.

هذا التطور الحاسم الذي مكَّن التحوُّل المذكور لم يكن نموذجاً لغوياً بعينه، بل دمج عدة طبقات تقنية:

  • نماذج لغوية قادرة على الاستدلال
  • أطر عمل للوكلاء (Agent Frameworks)
  • إمكانية الوصول الآمن إلى واجهات التطبيقات (APIs)
  • قواعد بيانات
  • أنظمة دفع
  • تقويمات
  • بريد إلكتروني

كما أن مشاريع مفتوحة المصدر مثل “Auto-GPT” و”LangGraph” و”CrewAI” شكَّلت اللبنات الأولى، قبل أن تنتقل الفكرة إلى المستوى التجاري داخل منصات كبرى مثل أوبن إيه آي، جوجل ومايكروسوفت.

في السياق العملي، تغيَّر شكل الطلب نفسه.. ولم يعد المستخدم يقول:

اكتب لي خطة سفر.

بل:

نظِّم لي رحلة عمل إلى دبي بميزانية محددة، مع مراعاة مواعيد الاجتماعات والعمل عن بُعد.

والوكيل هنا لا يُولِّد نصاً فقط، بل يقارن أسعار الطيران، يُقيِّم الفنادق وفق معايير العمل، يُنسِّق المواعيد، ويحدِّث التقويم، وقد يقترح بدائل أقل تكلفة بناءً على بيانات لحظية.

هذه القدرة ناتجة عن الجمع بين النماذج اللغوية وأنظمة الاسترجاع (RAG) والتنفيذ الفعلي للأوامر عبر واجهات خارجية.

أما الأثر الأعمق لوكلاء الذكاء الاصطناعي لم يكن في الاستخدام الفردي، بل في البنية المؤسسية للشركات.

ففي 2025، بدأت مؤسسات كبرى في اعتماد أسراب من الوكلاء لأداء مهام المحاسبة الأولية، إعداد التقارير القانونية، تحليل المخاطر، وخدمة العملاء متعددة اللغات.

لم تعد هذه المهام تُنفَّذ بواسطة موظفين منفصلين أو برامج جامدة، بل عبر منظومات ديناميكية من الوكلاء تتعلّم من أخطائها وتُحسّن أداءها باستمرار.

وعلى عكس المخاوف الشائعة، لم يؤدِّ هذا التحول إلى اختفاء الوظائف فوراً، بل إلى إعادة تعريفها.

حيث ظهرت أدوار جديدة مثل “مدير الوكلاء” أو “مهندس الأنظمة الذكية”، وهو الشخص المسؤول عن تحديد الأهداف، وضبط القيود الأخلاقية، ومراقبة الأداء العام للوكلاء.. وهنا، انتقلت قيمة الإنسان من التنفيذ إلى الحوكمة والتوجيه.

هذا التحول يشبه تاريخياً انتقال المدير من مراقبة العمال يدوياً إلى إدارة أنظمة الإنتاج الآلية في الثورة الصناعية.

لكن هذا الصعود لم يكن بلا مخاطر، فكلما ازدادت استقلالية الوكلاء، ازدادت الأسئلة حول المسؤولية القانونية، وحدود التفويض، وإمكانية الانحراف عن الهدف الأصلي.

في 2025، شهدنا أولى الحالات المثيرة للجدل لوكلاء نفَّذوا معاملات مالية أو قرارات تشغيلية تسببت في خسائر بسبب تفسير خاطئ للأهداف.

هذه الوقائع دفعت الهيئات التنظيمية في الاتحاد الأوروبي والولايات المتحدة إلى العمل على أُطر حوكمة جديدة تُعرف باسم “أُطر حوكمة العملاء – Agent Governance Frameworks”.

وإذا كان صعود وكلاء الذكاء الاصطناعي قد غيَّر ما يمكن للآلة فعله، فإن تطور بُنى الاستدلال المتقدمة غيَّر آلية فعل ذلك.

قبل 2025، كانت النماذج اللغوية الكبيرة تعتمد أساساً على التنبؤ الإحصائي بالكلمة التالية، حتى وإن بدا سلوكها ظاهرياً عقلانياً.

أما في 2025، فقد شهدنا انتقالاً نوعياً نحو نماذج تُجري عمليات تفكير داخلية مُنظَّمة قبل إنتاج الإجابة، عبر ما يُعرف بسلاسل الاستدلال أو “Reasoning Chains”.

والمقصود هنا ليس “وعي الآلة”، بل قدرتها على بناء مسارات منطقية مرحلية (Intermediate Steps) تُستخدم لتقييم الحل قبل إخراجه.

هذا التحول لم يكن مفاجئاً، بل نتيجة مسار بحثي بدأ مع تقنيات مثل “تحفيز سلسلة الأفكار – Chain-of-Thought Prompting”، ثم تطوّر إلى نماذج مدمجة الاستدلال، حيث أصبحت القدرة على التفكيك المنطقي جزءاً من بنية النموذج نفسها، لا مجرد حيلة توجيه نصي.

في هذه النماذج، لا تُنتج الإجابة مباشرة، بل تُجرى “محاكاة داخلية” لعدة حلول محتملة، يتم تقييمها وفق معايير الاتساق والمنطق قبل اختيار الناتج النهائي.

هذا التطور انعكس بوضوح في أداء الذكاء الاصطناعي في المجالات العلمية والهندسية، ففي 2025، أظهرت نماذج الاستدلال المتقدم قدرة غير مسبوقة على حل مسائل رياضية متعددة الخطوات، وتصميم دوائر إلكترونية، وتحليل سيناريوهات فيزيائية معقدة كانت سابقاً تتطلب فرقاً من الخبراء.

لم يعد الذكاء الاصطناعي “يخمن” الحل، بل يبنيه خطوة خطوة، ويختبر صحته داخلياً.

وهو ما يُعرف أحياناً بالاستدلال القائم على الاتساق الذاتي “Self-Consistency Reasoning”، حيث يُفاضل النموذج بين عدة مسارات استدلالية.

في القطاع الطبي، كان الأثر أكثر حساسية، فبدلاً من الاكتفاء بتوليد توصيات عامة، بدأت أنظمة الذكاء الاصطناعي في 2025 بتحليل الأعراض، والسجل الطبي، ونتائج الفحوصات عبر مسارات منطقية متعددة، تُقارن الاحتمالات التشخيصية وتستبعدها تدريجياً.

لا يعني ذلك استبدال الطبيب، بل توفير “مساعد تشخيصي” قادر على تبرير توصياته، وهو أمر حاسم في البيئات الطبية الخاضعة للمساءلة.

لكن القيمة الأعمق لبنية الاستدلال المتقدمة ظهرت في البيئات عالية المخاطر مثل الطاقة والصناعة، ففي شبكات الكهرباء الذكية، أصبحت الأنظمة القائمة على الاستدلال قادرة على محاكاة سيناريوهات انقطاع أو زيادة الأحمال قبل حدوثها فعلياً، واتخاذ قرارات استباقية لتوزيع الطاقة وتقليل الأعطال.

هذه القدرة على “التفكير المسبق” حوَّلت الذكاء الاصطناعي من أداة مراقبة إلى عنصر تخطيط تشغيلي.

غير أن هذا العمق في التفكير جلب معه إشكالية جديدة تمثلت في قابلية التفسير، فكلما أصبحت سلاسل الاستدلال أطول وأكثر تعقيداً، أصبح من الصعب على البشر تتبع منطق القرار بالكامل.

ولهذا، شهد عام 2025 تصاعد الاهتمام بما يُعرف بالاستدلال القابل للتفسير (Explainable Reasoning)، أي تطوير أدوات تُلخِّص المسارات المنطقية للنموذج بلغة مفهومة لصنّاع القرار والمشرِّعين، والهدف هنا ليس كشف كل خطوة، بل تقديم “تبرير معقول” للقرار الآلي.

على الجانب الآخر، لم تكتفِ الهيئات التنظيمية موقف المتفرج، ففي الاتحاد الأوروبي مثلا ارتبط استخدام نماذج الاستدلال المتقدم في القطاعات الحساسة بمتطلبات صارمة للتوثيق والشفافية، ضمن الإطار العام لقانون الذكاء الاصطناعي الأوروبي (EU AI Act).

أما في الولايات المتحدة، فقد تبنَّت الوكالات الفيدرالية نهج “التقييم السياقي”، حيث يُسمح بمرونة أكبر طالما أمكن إثبات سلامة القرار.

shutterstock 2268772859 1699691145


أتمتة الياقات البيضاء: كيف شكَّل الوكيل الذكي الشركات وسوق العمل؟


لطالما ارتبط مفهوم الأتمتة تاريخياً بالعمل اليدوي والوظائف الصناعية، حيث كانت الآلات تحل محل الجهد العضلي المتكرر، غير أن ما شهده عام 2025 مثَّل تحوُّلاً أعمق وأكثر إرباكاً: أتمتة الياقات البيضاء، أي الوظائف المعرفية التي كانت تُعد حتى وقت قريب حصناً منيعاً أمام الاستبدال الآلي:

  • المحاسبة
  • التحليل القانوني
  • إعداد التقارير
  • خدمة العملاء

وحتى بعض أشكال الإدارة الوسطى، أصبحت جميعها أهدافاً مباشرة للوكلاء الذكيين.

هذا التحول لم يحدث فجأة، بل نتيجة تراكم ثلاث قوى رئيسية:

  • نضوج نماذج اللغة القادرة على فهم السياق المؤسسي
  • تطور وكلاء الذكاء الاصطناعي المستقلين القادرين على تنفيذ سلاسل مهام
  • تكامل هذه الأنظمة مع البنية الرقمية للشركات من أنظمة تخطيط الموارد (ERP) إلى قواعد البيانات الداخلية.

في 2025، بدأت الشركات الكبرى في إعادة تصميم هياكلها التنظيمية حول هذا الواقع الجديد، فلم تعد الفرق تُبنى فقط حول اختصاصات بشرية، بل حول أسراب من الوكلاء يشرف عليها عدد محدود من البشر.

فيما ظهر منصب جديد في العديد من المؤسسات يُعرف باسم “مدير الوكلاء” أو “مدير الأنظمة الذكية”، وهو المسؤول عن تحديد الأهداف، ضبط الصلاحيات، ومراقبة أداء العشرات أو المئات من الوكلاء الذين يعملون على مدار الساعة.

في أقسام المحاسبة مثلاً، لم يعد إعداد التقارير المالية الشهرية يتطلب فرقاً كاملة من المحاسبين، فالوكلاء الأذكياء باتوا قادرين على جمع البيانات من مصادر متعددة، التحقق من التناقضات، إعداد المسودات الأولى للتقارير، وحتى اقتراح تفسيرات للانحرافات المالية.

ليتحوَّل دور المحاسب البشري من “مُدخل بيانات” إلى مراجع ومُفسِّر، يتدخل في الحالات المعقدة أو الحساسة فقط.

هذا التحول رفع الإنتاجية بالطبع، لكنه زاد في الوقت نفسه من متطلبات الكفاءة التحليلية للموظف البشري.

الأمر نفسه ينطبق على المجال القانوني، ففي 2025، أصبحت الوكلاء قادرة على مراجعة آلاف الصفحات من العقود، استخراج البنود الخطِرة، ومقارنتها بالتشريعات المحلية خلال دقائق.

ومع ذلك، لم يُلغِ دور المحامي، لكنه غيَّر جوهره؛ حيث انتقل من القراءة الميكانيكية إلى صياغة الاستراتيجيات القانونية والتفاوض.

غير أن التأثير الأوسع كان في سوق العمل نفسه، فبدلاً من موجة بطالة فورية كما تنبأت بعض الخطابات المتشائمة، شهد عام 2025 ما يمكن وصفه بـ”اختلال مؤقت” في الطلب.

حيث تراجعت الحاجة إلى بعض الوظائف الإجرائية، في مقابل ارتفاع الطلب على مهارات جديدة:

  • إدارة الأنظمة الذكية
  • فهم البيانات
  • التفكير الاستراتيجي
  • القدرة على العمل جنباً إلى جنب مع الوكلاء.

هذا النمط يشبه ما حدث خلال إدخال الحواسيب الشخصية في الثمانينيات، حيث اختفت وظائف وظهرت أخرى.

أما التقارير الاقتصادية الصادرة في 2025، فقد أظهرت أن الشركات التي تبنّت الأتمتة الذكية بشكل مبكر حققت قفزات كبيرة في الإنتاجية، لكنها واجهت تحديات ثقافية وتنظيمية حقيقية.

فإدارة بشر يشرفون على وكلاء لا ينامون ولا يخطئون بنفس الطريقة البشرية تطلبت إعادة تعريف مفاهيم مثل التقييم الوظيفي، وساعات العمل، وحتى المسؤولية عند الخطأ.

على المستوى الاجتماعي، أعادت أتمتة الياقات البيضاء إشعال النقاش حول عقد العمل الاجتماعي، فإذا كانت الآلة قادرة على تنفيذ الجزء الأكبر من العمل المعرفي، فما هو دور الإنسان؟

الإجابة التي بدأت تتبلور في 2025 لم تكن في المنافسة مع الآلة، بل في العمل فوقها:

  • تحديد الاتجاه
  • الحكم القيمي
  • اتخاذ القرارات التي تتطلب فهماً إنسانياً للسياق الأخلاقي والثقافي.

هذا العام إذن لم يكن عام “اختفاء الوظائف” كما أُشيع، بل عام تحولها الجذري، وانتقال العمل المعرفي من التنفيذ إلى الإشراف، ومن الإنتاج الفردي إلى التنسيق مع أنظمة ذكية، ما وضع الإنسان أمام تحدٍّ تاريخي جديد: كيف يحافظ على قيمته في عالم لم يعد يحتاج إلى يديه، بقدر ما يحتاج إلى حكمته؟

Quantum Geopolitics

symbol of global digital world communications, digital electronic world map isolated

الحوسبة الكمية والطاقة السيادية: من المختبر إلى الجغرافيا السياسية


لأكثر من عقدين، ظلَّت الحوسبة الكمية محصورة في نطاق التجارب المخبرية والعناوين البحثية المثيرة، حيث كان الحديث يدور حول “التفوّق الكمي” بوصفه إنجازاً نظرياً يثبت قدرة الحاسوب الكمي على حل مسألة واحدة أسرع من نظيره الكلاسيكي.

غير أن عام 2025 مثَّل نقطة تحوّل حاسمة مع الانتقال من مرحلة الاستعراض العلمي إلى ما بات يُعرف بالفائدة الكمية (Quantum Utility)، أي استخدام الحوسبة الكمية لحل مشكلات حقيقية ذات قيمة اقتصادية وصناعية مباشرة.

هذه “الفائدة الكمية” لا تعني أن الحواسيب الكمية تفوقت كلياً على الكلاسيكية، بل أنها أصبحت مفيدة في مجالات محددة لا يمكن للكلاسيكيات التعامل معها بكفاءة.

أحد التطورات المفصلية في هذا السياق كان الإعلان عن معالجات كمية بعدد كيوبتات تجاوز الألف -فيزيائية، ليست مستقرة بالكامل- إلى جانب تحسينات جوهرية في تصحيح الأخطاء الكمية.

فشركات مثل آي بي إم وجوجل أعلنتا في 2024–2025 عن تقدم ملموس في تقنيات تصحيح الخطأ، ما جعل الأنظمة الكمية أكثر استقراراً وقابلية للتشغيل لفترات أطول، لكنه لم يصل بعد إلى مرحلة الحوسبة الكمومية المقاومة للأخطاء “fault-tolerant quantum computing” الكاملة

هذا التقدم أخرج الحوسبة الكمية من حالة “الهشاشة التجريبية” إلى نطاق الاستخدام شبه التجريبي التطبيقي، وقرَّبه أكثر نحو التطبيق العملي.

الأثر الأبرز لهذا التحول ظهر في الكيمياء الحاسوبية وعلوم المواد، فمحاكاة التفاعلات الجزيئية المعقدة، خاصة تلك المرتبطة بالبروتينات والمواد فائقة التوصيل، كانت تمثل تحدياً شبه مستحيل للحواسيب التقليدية بسبب الانفجار الحسابي في عدد المتغيرات.

وفي 2025، بدأت الحواسيب الكمية تُستخدم لنمذجة جزيئات كاملة بدقة غير مسبوقة، ما فتح الباب أمام تسريع اكتشاف الأدوية، وتصميم مواد جديدة للطاقة والتصنيع.

هذه القدرة بالطبع لا تعني استبدال المختبر، بل تقليل عدد التجارب الفاشلة عبر محاكاة أدق مسبقاً.

غير أن الحوسبة الكمية لم تكن شأناً علمياً فقط، بل تحوّلت سريعاً إلى قضية سيادية وجيوسياسية، فالدول التي تمتلك بنية تحتية كمية متقدمة باتت قادرة نظرياً على كسر أنظمة تشفير تقليدية، وتحقيق تفوق استراتيجي في مجالات الاستخبارات والأمن.

هذا الواقع أعاد إلى الأذهان سباق التسلح النووي في القرن العشرين، لكن بأدوات رقمية غير مرئية.

في هذا السياق، تصاعد الحديث عن “السيادة الكمية”، أي قدرة الدولة على تطوير وتشغيل تقنيات كمية محلية دون الاعتماد على بنى تحتية أجنبية.

بهذا الصدد، أطلق الاتحاد الأوروبي برامج تمويل ضخمة ضمن مبادرة كوانتوم أوروبا “Quantum Europe”، بينما ضاعفت الصين والولايات المتحدة استثماراتهما في البحث والتطوير الكمي، ليس فقط لأسباب اقتصادية، بل لضمان الاستقلال الاستراتيجي.

أما أخطر تداعيات هذا التقدم فقد كان على الأمن السيبراني العالمي، إذ لم يعد كسر التشفير التقليدي (مثل RSA وECC) سيناريو نظرياً بعيداً، بل تهديداً مستقبلياً قابلاً للتوقع.

هذا الأمر تحديدا دفع الحكومات والمؤسسات المالية إلى تسريع الانتقال نحو التشفير ما بعد الكمي (Post-Quantum Cryptography)، وهي خوارزميات مصممة لمقاومة الهجمات الكمية.

لكن الانتقال لم يكن سهلاً، فاستبدال البنية التحتية التشفيرية العالمية يتطلب سنوات من العمل، وتكاليف ضخمة، وتنسيقاً دولياً معقداً.

أما الدول التي ستتأخر في هذا التحول، فستجد نفسها أمام مخاطر استراتيجية حقيقية، ما يجعل الأمن السيبراني الكمي جزءاً من مفهوم الأمن القومي الحديث، إذ لا يكمن الخطر فقط في كسر التشفير الحالي، بل في إمكانية تخزين البيانات اليوم لفك تشفيرها مستقبلاً.

feature image new smrs


المفاعلات النووية الصغيرة: اصطدام الخوارزميات باستهلاك الكهرباء


مع التسارع الهائل في نشر نماذج الذكاء الاصطناعي الضخمة خلال 2024 و2025، ظهرت حقيقة لم يكن من الممكن تجاهلها طويلاً:

الذكاء الاصطناعي يستهلك طاقة على نطاق غير مسبوق.

فمراكز البيانات التي تُدرِّب وتشغّل نماذج الاستدلال المتقدم والوكلاء المستقلين أصبحت تمثل أحمالاً كهربائية تعادل مدناً متوسطة الحجم، ما وضع شبكات الطاقة الوطنية أمام ضغوط لم تُصمَّم أصلاً للتعامل معها.

فتدريب نموذج واحد من الفئة العليا قد يستهلك طاقة تعادل استهلاك آلاف المنازل خلال عام كامل، بينما يتضاعف الاستهلاك عند التشغيل المستمر.

وفي عام 2025، لم يعد هذا التحدي نظرياً، إذ أشارت تقارير شركات الطاقة في أميركا وأوروبا إلى أن النمو المتسارع لمراكز البيانات بات أحد العوامل الرئيسية وراء ارتفاع الطلب على الكهرباء، متجاوزاً في بعض المناطق الطلب الصناعي التقليدي.

هذا الواقع فرض على عمالقة التكنولوجيا البحث عن حلول مستقرة وقابلة للتوسع، تتجاوز مصادر الطاقة المتجددة المتقطعة مثل الشمس والرياح.

هنا تحديداً، دخلت المفاعلات النووية النمطية الصغيرة (Small Modular Reactors – SMRs) إلى قلب المشهد التقني، ليس بوصفها مشروعاً مستقبلياً بعيداً، بل كحل عملي متوسط المدى.

تتميز هذه المفاعلات بحجمها الأصغر، وإمكانية تصنيعها في المصانع ونقلها جاهزة إلى مواقع التشغيل، إضافة إلى مستويات أمان أعلى مقارنة بالمفاعلات التقليدية.

وخلال العام الجاري، أعلنت شركات تقنية كبرى، من بينها مايكروسوفت وأمازون وجوجل، عن شراكات استراتيجية مع شركات طاقة نووية لتأمين إمدادات كهرباء مستقلة لمراكز بيانات الذكاء الاصطناعي.. هذه الاتفاقيات لم تكن مجرد عقود طاقة، بل إعادة رسم لعلاقة التكنولوجيا بالبنية التحتية السيادية للدول.

التحول نحو الطاقة النووية الصغيرة إذن ليس مدفوعاً فقط بالحاجة إلى الكهرباء، بل أيضاً باعتبارات الاستدامة والانبعاثات الكربونية.

فمع تصاعد الانتقادات حول البصمة البيئية للذكاء الاصطناعي، وجدت الشركات نفسها مضطرة لإثبات أن توسُّعها التقني لا يتعارض مع أهداف “صفر انبعاثات”،لتعود الطاقة النووية، رغم الجدل التاريخي حولها، لتُطرح كخيار منخفض الانبعاثات وقادر على العمل على مدار الساعة.

يجدر الإشارة إلى أن الانبعاثات الكربونية للطاقة النووية خلال دورة حياتها الكاملة أقل بكثير من الوقود الأحفوري، لكنها تظل محل نقاش بسبب النفايات المشعة.

من الناحية الجيوسياسية، فتح هذا التحول باباً جديداً للصراع حول السيادة الطاقية الرقمية، فالدول التي تمتلك تشريعات مرنة وبنية نووية متقدمة أصبحت أكثر جاذبية لاستثمارات مراكز البيانات العملاقة، بينما وجدت دول أخرى نفسها مقيدة بعوائق تنظيمية أو مجتمعية.

ففي 2025، بدأت تظهر بوادر “هجرة مراكز البيانات” نحو مناطق قادرة على توفير طاقة مستقرة ورخيصة على المدى الطويل.

لكن هذا المسار لم يكن خالياً من المخاطر، فالمخاوف المتعلقة بالسلامة، وإدارة النفايات النووية، واحتمالات الاستهداف السيبراني للبنية التحتية الطاقية، أعادت إحياء نقاشات قديمة بصيغة جديدة.

فإذا كانت مراكز البيانات تمثل “عقل الاقتصاد الرقمي”، فإن ربطها مباشرة بمفاعلات نووية يجعل أمن الطاقة وأمن المعلومات وجهين لعملة واحدة، أي أن أي خلل في الطاقة لم يعد يعني انقطاع الكهرباء فقط، بل تعطُّل أنظمة مالية، صحية، وخدمية مترابطة أيضاً.

SV 0520 BotsinBrief Figure01


الروبوتات البشرية: نموذج “الروبوت كخدمة”


حتى وقت قريب، ظلَّ الذكاء الاصطناعي محصوراً في الفضاء الرقمي:

  • خوارزميات تُحلّل
  • نماذج تُجيب
  • وكلاء افتراضيون يتفاعلون عبر النص والصوت.

أما هذا العام فقد مَثَّل نقطة تحوُّل نوعية، إذ خرج الذكاء الاصطناعي من الخوادم إلى الأجساد، عبر تسارع غير مسبوق في تطوير الروبوتات البشرية (Humanoid Robots) وتبنِّي نموذج اقتصادي جديد يُعرف باسم “الروبوت كخدمة” (Robot-as-a-Service – RaaS).

وهو روبوت بشري ذات هيئة تشريحية قريبة من الإنسان، قادر على الحركة، والتفاعل، وتنفيذ مهام معقدة في بيئات مصممة أساساً للبشر.

هذا التحول لم يكن نتيجة طفرة واحدة، بل تقاطع ثلاثة مسارات تقنية أيضاً:

  • نضج نماذج الرؤية الحاسوبية
  • تطور أنظمة التحكم الحركي الدقيقة
  • انفجار قدرات النماذج اللغوية متعددة الوسائط.

بفضل هذا التقاطع، أصبح الروبوت قادراً ليس فقط على تنفيذ الأوامر، بل على فهم السياق أيضاً، والتعلم من البيئة، والتفاعل مع البشر بلغة طبيعية.

ففي 2025، أعلنت شركات مثل بوسطن داينامكس (Boston Dynamics)، وفيجر إيه آي (Figure AI)، وتسلا (Tesla)، وأجيليتي روبوتيكس (Agility Robotics) عن نماذج قادرة على العمل لساعات طويلة داخل المصانع، المستودعات، والمرافق اللوجستية.

والجديد لم يكن في الحركة وحدها، بل في دمج هذه الروبوتات مع نماذج ذكاء اصطناعي عامة، ما منحها مرونة غير مسبوقة مقارنة بالروبوتات الصناعية التقليدية التي كانت مبرمجة لمهمة واحدة فقط.

يجدر الإشارة إلى أن الروبوت الصناعي التقليدي يعمل داخل ما يمكن اعتباره “صندوقا” وبحركات متكررة، بينما الروبوت البشري مصمم للتعامل مع بيئات غير متوقعة.

أما التحول الأهم فلم يكن تقنياً فحسب، بل اقتصادياً، فبدلاً من بيع الروبوت كوحدة مكلفة تتطلب استثماراً أولياً ضخماً، ظهر نموذج “الروبوت كخدمة”، حيث تدفع الشركات اشتراكاً شهرياً مقابل استخدام الروبوت، بما يشمل الصيانة، والتحديثات البرمجية، والدعم التقني.

هذا النموذج خفَّض الحواجز أمام تبنِّي هذا النهج، وفتح الباب أمام الشركات المتوسطة والصغيرة.

في القطاعات اللوجستية مثلاً، لم تعد الشركات تبحث عن أتمتة كاملة للمخازن، بل عن تعزيز القوة العاملة.

حيث بدأت الروبوتات البشرية العمل جنباً إلى جنب مع البشر:

  • ترفع الأحمال الثقيلة
  • تفرز الطرود
  • تنفِّذ المهام الخطرة أو المتكررة.

هذا التعايش أعاد تعريف مفهوم الإنتاجية، ولم يعد العامل البشري في منافسة مباشرة مع الآلة، بل في علاقة تكاملية معها.

غير أن هذا السرد الإيجابي لم يلغِ المخاوف الاجتماعية، حيث عاد النقاش حول فقدان الوظائف بقوة، لكن بصيغة أكثر تعقيداً.

فبينما تشير الدراسات إلى أن الروبوتات قد تُقلِّص وظائف منخفضة المهارة، فإنها في المقابل تخلق طلباً على أدوار جديدة:

  • مشغلو روبوتات
  • مهندسو صيانة
  • مشرفو أنظمة ذكية.

وفي المجال الخدمي، بدأت التجارب الأولى لاستخدام الروبوتات البشرية في الفنادق، المستشفيات، ودور رعاية المسنين.

هنا، لم يكن التحدي تقنياً فقط، بل أخلاقياً أيضاً، فالتفاعل مع كبار السن أو المرضى يفرض أسئلة حول التعاطف، والخصوصية، وحدود الاعتماد على الآلة في سياقات إنسانية حساسة.

أما سياسياً وتنظيمياً، فقد وجدت الحكومات نفسها متأخرة خطوة أخرى، فالقوانين التي تُنظِّم السلامة المهنية، والمسؤولية القانونية، وحتى التأمين، لم تُصمَّم للتعامل مع روبوت يعمل بين البشر.

وخلال العام الجاري، بدأت بعض الدول بوضع أطر أولية تُحمِّل الشركة المشغِّلة -لا المصنع، ولا المستخدم النهائي- المسؤولية عن أخطاء الروبوت.

في المحصلة، لم تكن الروبوتات البشرية مجرد منتج جديد، بل تحولاً في علاقة الذكاء الاصطناعي بالعالم المادي.

ومع نموذج “الروبوت كخدمة”، لم يعد السؤال متى ستدخل الروبوتات حياتنا اليومية، بل كيف سنعيد تعريف العمل، القيمة، والمسؤولية في عالم تشاركه معنا آلات ذكية تتحرك، ترى، وتتعلم.

296560 1468x710 1


تنظيم الذكاء الاصطناعي: من الابتكار إلى القوانين والسيادة الرقمية


مع تحوُّل الذكاء الاصطناعي من أداة تقنية إلى بنية تحتية كونية تؤثر في الاقتصاد، الأمن، والسياسة، وجدت الدول نفسها أمام معضلة غير مسبوقة: كيف يمكن تنظيم تكنولوجيا تتجاوز الحدود الوطنية بطبيعتها، بينما تظل القوانين محكومة بالجغرافيا والسيادة؟

فيما مثَّل عام 2025 اللحظة التي انتقل فيها هذا السؤال من أروقة النقاش الأكاديمي إلى صلب السياسات العامة.

فيما يجدر الإشارة هنا إلى أن “التنظيم” لا يعني الحظر أو الإبطاء، بل وضع أطر قانونية وأخلاقية تحكم التطوير، النشر، والمساءلة.

خلال السنوات السابقة، ساد اعتقاد غير معلن بأن التنظيم المبكر يقتل الابتكار، لكن تسارع الحوادث المرتبطة بالذكاء الاصطناعي، من أخطاء طبية، إلى انحيازات قضائية، وصولاً إلى استخدامات عسكرية واستخباراتية فرض تغييراً جذرياً في هذا المنطق.

وفي 2025، بات واضحاً أن غياب التنظيم لا يعني حرية، بل فوضى ذات كلفة اجتماعية وسياسية مرتفعة.

فيما كان الاتحاد الأوروبي سبَّاقاً في هذا المسار عبر قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، الذي دخل حيِّز التنفيذ التدريجي في 2025.

هذا القانون لم يتعامل مع الذكاء الاصطناعي كتقنية واحدة، بل صنَّفه وفق مستويات المخاطر:

  • منخفضة
  • متوسطة
  • عالية
  • محظورة

فالأنظمة عالية الخطورة مثل تلك المستخدمة في التوظيف، والائتمان، وإنفاذ القانون فُرضت عليها متطلبات صارمة للشفافية، التوثيق، وإمكانية التدقيق.

هذا التصنيف القائم على المخاطر يسمح بالابتكار في التطبيقات منخفضة التأثير، مع تشديد الرقابة حيث تكون العواقب جسيمة.

وفي المقابل، تبنَّت الولايات المتحدة مقاربة مختلفة، أكثر مرونة وأقل مركزية، فبدلاً من قانون شامل، اعتمدت على مزيج من التوجيهات التنفيذية، ومعايير طوعية، وتنظيم قطاعي تقوده وكالات مثل لجنة التجارة الفيدرالية (FTC) والمعهد الوطني للمعايير والتكنولوجيا (NIST).

عكس هذا النهج خوفاً أمريكياً تقليدياً من خنق الشركات الناشئة، لكنه في الوقت نفسه ترك فجوات تنظيمية أثارت انتقادات داخلية متزايدة.

أما الصين، فقد سلكت مساراً ثالثاً، حيث ربطت تنظيم الذكاء الاصطناعي مباشرة بمفاهيم الأمن القومي والاستقرار الاجتماعي، إذ ركزت اللوائح الصينية على التحكم في المحتوى المُولَّد، ومنع استخدام النماذج في تقويض السرديات الرسمية أو جمع بيانات حساسة دون إذن.

وفي هذا النموذج، لم يكن السوق هو المحرك الأساسي، بل الدولة بوصفها المنظم والمستخدم الأكبر للتقنية، ما يعكس فلسفة ترى في الذكاء الاصطناعي أداة سيادية قبل أن يكون منتجاً تجارياً.

هذا التباين بين النماذج الثلاثة -الأوروبي، الأمريكي، الصيني- خلق ما يشبه تجزئة تنظيمية عالمية، حيث باتت الشركات متعددة الجنسيات مضطرة لتكييف نماذجها ومنتجاتها وفق كل سوق، ما زاد التكاليف وطرح أسئلة حول قابلية التوافق التقني والقانوني.

ليصبح الحديث هذا العام عن “معايير عالمية” أكثر إلحاحاً، لكنه في الوقت ذاته أكثر تعقيداً، وفي محاولة لتقليل هذا التشرذم، ظهرت مبادرات متعددة الأطراف، مثل إعلان مجموعة السبع (G7) حول الذكاء الاصطناعي الموثوق، ومحادثات الأمم المتحدة بشأن الأسلحة الذاتية التشغيل.

غير أن هذه المبادرات اصطدمت بواقع المصالح المتضاربة: فما تعتبره دولة تنظيماً ضرورياً، تراه أخرى قيداً استراتيجياً.

ومن زاوية الشركات، لم يعد التنظيم يُنظر إليه دائماً كعبء، حيث بدأ بعض اللاعبين الكبار بدعم أطر تنظيمية واضحة، لأنها ترفع الحواجز أمام المنافسين الصغار غير المنضبطين، وتمنحهم ميزة الامتثال المبكر، وبذلك تحوَّل التنظيم إلى أداة تنافسية في حد ذاته.

website cover Investigating the Kill Cloud dossier Khalil Dewan scaled


الذكاء الاصطناعي والحروب: من الدعم اللوجستي إلى القتل المؤتمت


مع تقدم الذكاء الاصطناعي إلى مستويات غير مسبوقة في 2025، أصبح واضحاً أن تطبيقاته لم تعد محصورة في المجالات المدنية والاقتصادية فحسب، بل امتدت بقوة إلى الفضاء العسكري.

لكن التحول الأبرز تمثل في الانتقال من استخدام الذكاء الاصطناعي كأداة مساعدة في التخطيط واللوجستيات إلى أنظمة قادرة على اتخاذ قرارات قتالية جزئية أو كاملة، في إطار ما بات يُعرف بالأسلحة الذاتية التشغيل (Autonomous Weapons Systems – AWS).

هذا الأنظمة ليست مجرد طائرات بدون طيار، بل أنظمة تشمل برمجيات متقدمة على الأرض والبحر والجو قادرة على تحديد الأهداف واتخاذ إجراءات قتالية محدودة تلقائياً، حيث جرَّبها الاحتلال الإسرائيلي في الحرب الأخيرة على غزة.. مثل أنظمة لافندار، وجوسبيل، وهاسبرا.



للمزيد: الذكاء الاصطناعي في الحروب: غزة مختبر للتكنولوجيا والخوارزميات



وخلال العام الحالي، شهدت المختبرات العسكرية الكبرى حول العالم، من أميركا إلى الصين وروسيا، تطوير وكلاء قتاليين مستقلين قادرين على تنفيذ مهام محددة دون تدخل بشري مباشر، مع دمج تحليلات البيانات الضخمة، الاستشعار اللحظي، والتعلم الآلي لتقييم المخاطر على الأرض.

ولم يعد الأمر مقتصراً على الطائرات أو الدبابات فقط، فقد ظهرت روبوتات أرضية صغيرة تستطيع الانتشار داخل ساحات المعارك، مزودة بأجهزة استشعار لتحديد مواقع العدو، ونظام ذكاء اصطناعي يُقرر إن كان الهدف مشروعا أم لا وفق معايير محددة مسبقاً.

هذه القدرات طرحت تحديات أخلاقية وقانونية هائلة، إذ لم يتوقع أي إطار قانوني دولي سابق التعامل مع “قرار القتل الذاتي الآلي”.

يجدر الإشارة إلى أن النقاش حول الأخلاقيات العسكرية يشمل مسائل مثل المساءلة القانونية، وتحديد المسؤول عند حدوث خطأ، وتجنب الإصابات غير المستهدفة.

وفي سياق منفصل، تطور الذكاء الاصطناعي لدعم التحليل الاستراتيجي واللوجستي، على سبيل المثال، باتت أنظمة تخطيط المعارك قادرة على حساب أفضل توزيع للقوات، وتقدير الاحتياجات اللوجستية، ومحاكاة سيناريوهات معقدة تشمل آلاف المتغيرات في دقائق، وهي عمليات كانت تستغرق أسابيع من قبل فرق بشرية متخصصة.

ومع ذلك، كان الجانب الأكثر إثارة للجدل هو نموذج القرار المؤتمت جزئياً، ففي بعض التجارب، وُضع شرط إشراف بشري على القرارات النهائية، لكن المعالجة والتحليل الأولي كانت تتم بالكامل بواسطة الذكاء الاصطناعي.

هذا النموذج أظهر فاعلية كبيرة في تقليل الأخطاء البشرية، لكنه أثار مخاوف حول الاعتماد الزائد على الأنظمة الرقمية في مواقف حياة أو موت.

وفي السياق الدولي، دفع هذا التطور العديد من الدول والمنظمات إلى الدعوة إلى معاهدات حظر الأسلحة الذاتية بالكامل أو الجزئية، لكن تطبيق هذه المعاهدات كان صعباً بسبب صعوبة التفريق بين الاستخدام المدني والعسكري للذكاء الاصطناعي، والتنافس الاستراتيجي بين القوى الكبرى.

كما استفادت بعض الجهات من دمج الذكاء الاصطناعي مع الأسلحة التقليدية، مثل المدفعية والطائرات المأهولة جزئياً، ما أعطى القدرة على استهداف أكثر دقة وتقليل الخسائر الجانبية.

لكن هذه الدقة تأتي مع تكلفة سياسية وأخلاقية، حيث أُثير السؤال هام: هل يمكن تبرير قتل هدف محدد تلقائياً دون حكم أخلاقي بشري مباشر؟

بهذا الصدد، يجدر الإشارة أيضاً إلى أن معظم الدول -حتى الآن- تعتمد على إشراف بشري في القرارات النهائية، مع اتجاه واضح نحو تقليل التدخل البشري تدريجياً مع تحسين القدرات الآلية.

وعلى المستوى التكتيكي، شهد هذا العام دمج الذكاء الاصطناعي مع الطائرات بدون طيار والأسلحة البحرية، حيث يمكن للأساطيل المستقلة التواصل فيما بينها، تبادل المعلومات في الوقت الحقيقي، واتخاذ قرارات هجومية أو دفاعية بشكل جماعي دون تأخير بشري.

enterprise industrial metaverse 1200px png




الميتافيرس الصناعي والتوائم الرقمية


حتى سنوات قليلة، ارتبط مفهوم الميتافيرس بالترفيه، والألعاب، والتواصل الاجتماعي، أما بحلول 2025، فقد بدا وكأنه يتخذ دوراً اقتصادياً وصناعياً محورياً، حيث أصبح “الميتافيرس الصناعي” أداة استراتيجية لإدارة المدن الذكية، الصناعة، والتصميم الهندسي.

يختلف الميتافيرس الصناعي عن الميتافيرس التقليدي في كونه بيئة افتراضية مرتبطة مباشرة بالبيانات الحقيقية، وليس مجرد فضاء للترفيه أو التواصل.

هذا التحول كان مدعوماً بعوامل رئيسية أيضاً.

أولاً، تحسن محركات الألعاب مثل “Unreal Engine 5.5″، التي وفرت محاكاة رسومية دقيقة لحركة المواد، الضوء، والفيزياء الواقعية.

ثانياً، انتشار أجهزة الاستشعار اللحظية (IoT) في المصانع، الشوارع، والمرافق العامة.

ثالثاً، تطور واجهات الدماغ الحاسوبية (BCI) التي سمحت بتحكم مباشر في البيئات الافتراضية عبر التفكير والتركيز.

وأحد أبرز التطبيقات كان التوائم الرقمية للمدن الذكية.. فمدن مثل نيوم في السعودية بدأت باعتماد توائم رقمية تحاكي كل جانب من جوانب البنية التحتية:

  • شبكات المياه
  • الطاقة
  • المرور
  • إدارة النفايات

وعند حدوث أي مشكلة فعلية، يمكن للمهندسين تجربة الحلول في النسخة الرقمية قبل تطبيقها على أرض الواقع، مما قلل الأخطاء، وحسَّن الكفاءة بشكل كبير.

فيما يجدر الإشارة إلى أن التوأم الرقمي هو نموذج افتراضي حي يعكس الحالة اللحظية للواقع، ويتيح المحاكاة، والتنبؤ، والتحليل في بيئة آمنة قبل أي تدخل فعلي.

وفي المجال الصناعي، أصبح الميتافيرس أداة تصميم وإنتاج متكاملة، حيث بدأت شركات التصنيع، مثل إير باص وسيمنز، بدمج نماذج ثلاثية الأبعاد دقيقة لمكونات الطائرات والمحركات مع بيانات إنتاج حية من خطوط التجميع، وهذا الدمج ساعد على كشف العيوب قبل الإنتاج، وتحسين الجودة، وتسريع دورة الابتكار.

وفي التدريب الطبي والهندسي، انخفضت تكاليف أجهزة الواقع المختلط (MR) بشكل كبير في 2025، ما سمح للجراحين والمهندسين بالعمل في بيئة افتراضية تحاكي الواقع بدقة عالية.

على سبيل المثال، يمكن للجراح إجراء محاكاة عملية معقدة باستخدام بيانات الرنين المغناطيسي اللحظية قبل الدخول إلى غرفة العمليات.

كما يمكن للمهندس اختبار تصاميم تحت ظروف مختلفة دون المخاطرة بالمعدات أو المواد.

حيث يجمع الواقع المختلط يجمع بين “الواقع الافتراضي” و”الواقع المعزز” لتوفير تجربة غامرة، تساعد في اتخاذ قرارات دقيقة وتقليل الخطأ البشري.

ليس هذا فحسب، إذ لم تقتصر التوائم الرقمية على المدن والمصانع، وامتدت لشمل شبكات الطاقة، والنقل، والمرافق العامة.

فعند حدوث أعطال أو طوارئ، يمكن للنسخ الرقمية محاكاة سيناريوهات متعددة، واختيار الحل الأفضل قبل تطبيقه على الأرض.

هذا النظام أعطى الحكومات القدرة على إدارة المدن بشكل لحظي، مع تقليل الهدر وزيادة الكفاءة التشغيلية.

ومع هذه التوسعات، ظهر تحدٍ جديد تمثل في “الخصوصية وحماية البيانات”، فجمع كل هذه البيانات الحساسة في بيئة رقمية خلق مخاطر هائلة في حال التعرض للاختراق أو الاستخدام غير القانوني.

لذلك، ظهرت معايير أمان رقمية صارمة مثل “C2PA” و”Zero Trust Security”، لحماية النسخ الرقمية من التلاعب.

أما الجانب الاقتصادي فقد كان محورياً أيضاً، حيث أنشأ الميتافيرس الصناعي سوقاً جديداً بالكامل، يشمل:

  • تصميم النماذج الرقمية
  • صيانة الأنظمة
  • تقديم الخدمات الاستشارية لتحليل البيانات الحية.



ومن المتوقع أن يتيح هذا السوق فرص عمل لم تكن موجودة قبل خمس سنوات، من مهندسي البيانات والتوائم الرقمية إلى خبراء الأمن السيبراني والتحليل الصناعي.

iob




الإنترنت السلوكي: السيطرة على السلوك والبيانات في العالم الجديد


مع نهاية عام 2025، لم تعد التكنولوجيا تقتصر على تحسين الإنتاجية أو تسهيل الحياة اليومية، بل امتدت لتصبح عنصراً فعالاً في فهم سلوكيات البشر والتحكم بها، وهو ما يُعرف بالإنترنت السلوكي (Internet of Behavior – IoB).

يقوم هذا المفهوم على جمع بيانات ضخمة من أجهزة متصلة، مثل الساعات الذكية، نظارات الواقع المعزز، حساسات السيارات، وأنظمة المنازل الذكية، ومن ثم تحليلها لاكتشاف أنماط السلوك والتوجهات النفسية للمستخدمين.

إذ يتجاوز “الإنترنت السلوكي” الإنترنت التقليدي للأشياء (IoT) الذي يركز على ما يفعله المستخدم، إلى تحليل دوافعه وسلوكياته لتقديم حلول أو تحفيز قرارات محددة.

أحد أبرز التطبيقات كان في قطاع التأمين، حيث باتت أقساط السيارات تتغير لحظياً حسب أسلوب القيادة، حيث يُقيِّم نظام الذكاء الاصطناعي مدى تهور السائق أو التزامه بالقواعد.

أما في التسوق، فقد أصبح بإمكان المتاجر الذكية تعديل الإضاءة والموسيقى والعروض المباشرة وفق حالة الزبون النفسية، مثل التوتر أو الحماس، استناداً إلى بيانات مثل نبضات القلب وتمدد بؤبؤ العين.

في المقابل، خلق هذا التطور تحديات ضخمة على صعيد الخصوصية والحريات الرقمية، إذ إن تحليل السلوك البشري بهذا العمق أثار تساؤلات حول إمكانية التلاعب بالرغبات والقرارات، ومنع المستخدمين من التحكم الكامل في بياناتهم.

وفي حين بدأت بعض الحكومات بوضع قوانين صارمة لتقييد استخدام البيانات السلوكية، سعت شركات التكنولوجيا لإيجاد توازن بين الاستفادة من هذه البيانات وحماية الحقوق الفردية، حيث تشمل المخاطر استغلال البيانات للتأثير على التصويت، والتسويق الموجه المفرط، فضلاً عن التدخل في القرارات الشخصية دون علم المستخدم.

وعلى صعيد الهوية الرقمية والسيادة السيبرانية، أصبح لكل ملف رقمي -سواء صورة، فيديو، أو نص- سجل مشفر يوضح مصدره، ووقت إنشائه، وأي تعديلات تمت عليه بواسطة الذكاء الاصطناعي.

هذا التحول جاء لمواجهة انتشار التزييف العميق (Deepfakes) والفيديوهات التوليدية التي صارت قادرة على محاكاة أي شخص بدقة 8K مع نبرة صوت وحركة وجه حقيقية.

حيث يُتيح “سجل الهوية الرقمية” التحقق من صحة البيانات، ويمنع تداول معلومات مضللة، ما أعاد تعريف مفهوم “الحقيقة الرقمية”.

كما أصبح الأمن السيبراني ذاتي الإصلاح (Self-Healing Cybersecurity)، فمع ازدياد الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، ظهرت أنظمة تستطيع اكتشاف الثغرات واستغلالها في أجزاء من الثانية، ثم إعادة بناء الكود المصاب وإغلاق الثغرة تلقائياً قبل أن يستفيد منها المهاجم.

هذا التطور حوَّل الأمن السيبراني إلى حرب خوارزميات صامتة، تحدث في طبقات تحتية للإنترنت دون أن يشعر بها المستخدم النهائي، مع تقليل الحاجة للتدخل البشري المباشر.

حيث تعتمد هذه الأنظمة على الذكاء الاصطناعي التكيفي الذي يتعلم من كل محاولة اختراق، ويزيد من مقاومة الشبكات مع مرور الوقت.

كما أن تزايد الاعتماد على هذه الأنظمة دفع الحكومات والشركات إلى تطوير مراكز قيادة رقمية، حيث يتم مراقبة وتحليل كل البيانات السلوكية لحماية الأمن القومي، وضمان الامتثال، والتحكم في المخاطر التشغيلية.

في هذا السياق، بدأت النقاشات تتعمق حول المسؤولية القانونية: من يتحمل الخطأ عندما تتخذ خوارزميات الذكاء الاصطناعي قرارات خاطئة تؤدي إلى أضرار مادية أو بشرية؟

وهذه الأسئلة تمثل جوهر التحديات القانونية المستقبلية للذكاء الاصطناعي، خصوصاً عند دمجه مع أنظمة ذاتية التحكم في مجالات حرجة مثل النقل والطاقة.

في النهاية، فإن دمج الإنترنت السلوكي، الهوية الرقمية، والأمن الذاتي جعل عام 2025 بمثابة نقطة تحول حقيقية، حيث أصبح الإنسان يعيش الآن في عالم يُرصد فيه سلوكه بدقة، وتُحمَّل فيه البيانات مسؤولية الحفاظ على الحقوق الفردية، وتُدار فيه الهجمات الإلكترونية بشكل مستقل.

هذا الواقع الجديد أعاد تعريف العلاقة بين البشر، والبيانات، والتكنولوجيا، وجعل التحكم بالمعلومات والسيطرة عليها عنصر قوة استراتيجي على كافة الأصعدة.

OpenSourceAI scaled


كسر الاحتكار: نماذج الذكاء الاصطناعي المفتوحة المصدر


مع بروز الذكاء الاصطناعي بوصفه صناعة محورية في الاقتصاد الرقمي، شهد عام 2025 تحولاً مهماً في نموذج توزيع الإمكانات العقلية للآلة نفسها، وانتقال التركيز من نماذج مغلقة تحت سيطرة عدد محدود من الشركات الكبرى، إلى نماذج مفتوحة المصدر تُتيح لأي مؤسسة أو مطور الوصول إلى بنية النظام الداخلي وتخصيصه حسب الحاجة.

قبل ذلك، كان التحكم في النماذج المتقدمة يعني في الغالب الاعتماد على منصّات احتكارية مثل النسخ المغلقة من “GPT” أو نماذج تجارية مشابهة لدى كبار مزوّدي الخدمات السحابية، وهو ما أرسى نوعاً من احتكار “العقول الاصطناعية” بذراعين:

  • قدرة التدريب المتقدم
  • نظام توزيع المعرفة غير الشفاف.

غير أن عام 2025 شهد بداية إعادة تشكيل هذا الاحتكار من الداخل، فقد أعلنت جهات متعددة وشركات تقنية كبرى عن إتاحة نماذج ذكاء اصطناعي يمكن تنزيلها وتشغيلها وتخصيصها بحرية تامة أو شبه تامة.

على سبيل المثال، أطلق مطوِّرون نماذج “GPT-oss” من أوبن إيه آي بأوزان مفتوحة تُمكّن المطورين من تحميلها وتشغيلها محلياً واختبارها ضمن بيئاتهم الخاصة، مع أداء قريب من نماذج الإنتاج المغلقة، ما يمثل خطوة نحو “دمقرطة التقنية” في الذكاء الاصطناعي.

والعامل الذي يميز هذا التوجّه أن المصدر المفتوح لا يعني مجرد فتح الكود، بل توفير:

  • الأوزان (Weights) للنموذج.
  • إمكانية التخصيص Fine-Tuning على بيانات خاصة.
  • معايير شفافية أكبر في السلوك والتدريب.

ما يضع أدوات الذكاء الاصطناعي في متناول المؤسسات الصغيرة والمتوسطة، والباحثين، وحتى الدول التي لا تمتلك موارد ضخمة للتدريب، الأمر الذي يقلِّص الفجوة بين من يمتلكون موارد ضخمة ومن هم خارج دائرة الاحتكار التقليدي.

ولا يقتصر التوسع على اللاعبين الأمريكيين فحسب، ففي 2025، أطلقت سويسرا نموذج “Apertus” المفتوح بالكامل، الذي جاء مع بيانات التدريب وشفافية في المعماريات ومصدر مفتوح على منصات مثل “Hugging Face” مصمماً ليكون بديلاً شفافاً للموديلات المغلقة مع دعم لأكثر من 1800 لغة.

تُعَد هذه المبادرات انعكاساً لتيار عالمي جديد في الذكاء الاصطناعي، حيث يرى المُطوِّرون أن الشفافية والوصول الحر للمصادر يُسهم في تسريع الابتكار وليس إبطائه.

هذا التوجّه أيضاً يُفتح الباب أمام حوكمة أفضل، إذ يمكن للمجتمع العلمي فحص الأساليب والبيانات التي بُنيت عليها النماذج، وتقصِّي الانحيازات المحتملة أو نقاط الضعف التكنولوجية.

لكن الطريق نحو نظام مفتوح فعلاً ليس خالياً من التحديات، فحتى بين ما يطلق عليه “نموذج مفتوح المصدر”، توجد اختلافات في درجة الانفتاح والشفافية الحقيقية.

الآن، وبعد انتشار هذه النماذج في 2025، لم يعد الذكاء الاصطناعي حكراً على عدد محدود من اللاعبين التجاريين، بل تحول إلى منظومة يمكن للمجتمعات العلمية والصناعية المشاركة فيها بفعالية، ما يمثِّل نقطة انعطاف في تاريخ الاحتكار التكنولوجي لصالح نموذج أكثر تنوعاً واندماجاً في الاقتصادات الرقمية المحلية والعالمية.



المصادر:

Harvard

Google

Medium

deloitte

Forbes

NIST

ACL digital

Langchain

Enterprise AI Executive

The Lancet

Digital-strategy.ec.europa

Cyber-Association

deloitte

Weforum

Nat Law Review

Consilium Europa

Top10erp

Itbusinesstoday

OpenAI

ظهرت المقالة عام الانصهار: أبرز الاتجاهات التقنية في 2025 أولاً على بلوك تِك.

المصدر
 
عودة
أعلى