


عدد المقالات 2
في ظل الثورة التكنولوجية المتسارعة، يبرز الذكاء الاصطناعي بوصفه أحد أعظم منجزات العصر الحديث، إذ أضحى جزءًا لا يتجزأ من تفاصيل حياتنا اليومية، بدءًا من الهواتف الذكية، ومرورًا بالتشخيص الطبي، ووصولًا إلى المركبات ذاتية القيادة وأنظمة الترجمة الفورية. غير أن هذا التقدّم المذهل يثير تساؤلات جوهرية: هل يُعدّ الذكاء الاصطناعي أداة نافعة تُسهم في رقيّ البشرية؟ أم أنه خطر داهم قد يهدد وجودها؟ للإجابة عن هذا السؤال، لا بد من التمعّن في الأدلة العلمية والواقع العملي الذي نعيشه اليوم. لا ريب في أن الذكاء الاصطناعي قدّم فوائد جمّة في شتى الميادين. فقد أثبتت الدراسات أن استخدامه في المجال الطبي، كتحليل صور الأشعة وتشخيص الأمراض، قد أسهم في رفع دقة التشخيص إلى نسب تجاوزت 94% في بعض الحالات، متفوقًا على الأطباء في مهام محددة. كما تُوظَّف تقنيات الذكاء الاصطناعي في تحسين كفاءة الطاقة، وتطوير الأدوية، وتحليل البيانات البيئية لرصد التغيرات المناخية. وفي ميدان التعليم، توفر أدوات تعليمية ذكية قادرة على تكييف المحتوى وفق مستوى كل طالب، مما يعزز من جودة العملية التعليمية. في المقابل، تحذّر تقارير علمية من مخاطر حقيقية قد تنجم عن الاستخدام غير المنضبط للذكاء الاصطناعي. فقد أشار تقرير السلامة الدولية للذكاء الاصطناعي لعام 2025، الذي أعدّه أكثر من مئة خبير من ثلاثين دولة، إلى أن الذكاء الاصطناعي المتقدّم قد يُفضي إلى تهديدات أمنية جسيمة، كالهجمات السيبرانية المدعومة بالذكاء الاصطناعي، أو تطوير أسلحة ذاتية التشغيل دون رقابة بشرية. كما حذّر التقرير من اضطرابات محتملة في سوق العمل، إذ يُتوقّع أن تؤدي الأتمتة إلى فقدان ملايين الوظائف، مع صعوبة تأقلم كثير من الأفراد مع الوظائف الجديدة التي تتطلب مهارات تقنية متقدمة. ومن أبرز المخاوف التي عبّر عنها علماء مرموقون، كجيفري هينتون الملقّب بـ»عرّاب الذكاء الاصطناعي»، أن النماذج المتقدمة مثل GPT-4 قد أظهرت بوادر لما يُعرف بـ»الذكاء العام الاصطناعي» (AGI)، أي القدرة على أداء مهام معرفية متعددة بمستوى يضاهي أو يفوق البشر. وهذا النوع من الذكاء قد يمتلك القدرة على تحسين ذاته ذاتيًا، مما يفتح الباب أمام سيناريوهات يصعب التنبؤ بها أو السيطرة عليها. وقد وقّع أكثر من 28,000 خبير ومهندس تقني، من بينهم إيلون ماسك وستيف وزنياك، على عريضة تطالب بوقف مؤقت لتطوير هذه النماذج، ريثما توضع ضوابط أخلاقية وتشريعية واضحة. أما من منظوري الشخصي، فأرى أن الذكاء الاصطناعي ليس عدوًا للبشرية، بل هو امتداد لقدرتنا على الابتكار والتطوّر. غير أنني لا أؤمن بوجوب الوثوق به ثقة مطلقة، أو تركه ينمو دون رقابة. إن مسؤولية توجيه هذه التقنية تقع على عاتقنا نحن البشر، وينبغي أن تُسخّر لخدمة الصالح العام. وأعتقد أن الخطر الحقيقي لا يكمن في الذكاء الاصطناعي ذاته، بل في غياب الأطر الأخلاقية التي تضبط استخدامه. كما أرى أن التعليم ينبغي أن يتطور ليتماشى مع هذا العصر، بحيث نُعدّ الأجيال القادمة لاستخدام الذكاء الاصطناعي، وفهمه، وتطويره، ومراقبته. فالذكاء الاصطناعي قد يكون أداة عظيمة لتحسين جودة الحياة، لكنه قد يتحول إلى سلاح إذا وُضع في الأيدي الخطأ أو تُرك دون توجيه. ومن ثمّ، فإنني أؤمن بأن مستقبل الذكاء الاصطناعي يجب أن يُبنى على أسس من الوعي، والمساءلة، والعدالة، وأن نكون نحن من يقوده، لا أن يقودنا هو.
في زمنٍ تتداخل فيه القيم وتتشابك فيه المعايير، يُطرح سؤالٌ يضرب في عمق الضمير الإنساني: هل أصبح الحق ثقيلاً لأن الباطل يبدو مريحاً؟ إنّ هذا التساؤل لا ينبع من فراغ، بل من واقعٍ باتت فيه...