في هذا السياق المتشابك، أجرت أس بي أس عربي حواراً معمقاً مع الخبير والباحث في شؤون الذكاء الاصطناعي إسماعيل اقطيفان، الذي قادنا إلى جولة حول الذكاء الاصطناعي من منظور تقني وإنساني في آن.
الذكاء الاصطناعي: امتداد للعقل البشري
يعرف إسماعيل اقطيفان الذكاء الاصطناعي بأنه "محاكاة للذكاء البشري عبر برمجيات وأدوات محوسبة"، تعالج كمًا هائلًا من البيانات وتستنبط نتائج يصعب على الأساليب التقليدية الوصول إليها. فهو ليس بديلاً عن الإنسان، بل امتداد لقدراته. ليصبح الذكاء الاصطناعي أكثر "قوةً" وانتشاراً. لكنه، ورغم كل ما يقدّمه، لا يمكن اعتباره خالياً من المخاطر، بل هو بحاجة ماسة إلى منظومة قيمية تضبطه.
الضوابط الأخلاقية جدار الصد الأول
يشير إسماعيل إلى أن "الأخلاق هي خط الدفاع الأول في التعامل مع الذكاء الاصطناعي"، فالقوانين مهما كانت محكمة، تأتي غالباً بعد وقوع الفعل، وتحاول احتواء الأثر، لا منعه. والمفارقة أن أدوات الذكاء الاصطناعي تُستخدم اليوم في خلق محتوى لا يمكن التفريق بينه وبين المحتوى البشري. صور مزيفة، تسجيلات صوتية مقلدة، وأخبار ملفّقة تنتشر كالنار في الهشيم. في هذا المشهد المتداخل، تبقى البوصلة الأخلاقية ضرورية لكل من يستخدم أو يطوّر هذه التقنيات.
القاضي والمتهم في هيئة واحدة
باتت أدوات الذكاء الاصطناعي تُستخدم للحكم على ما إذا كان المحتوى "حقيقياً" أم لا. لكن المفارقة تكمن، كما يقول إسماعيل، في أننا نستخدم الذكاء الاصطناعي للحكم على الذكاء الاصطناعي نفسه، وكأننا نضع القاضي والمتهم في هيئة واحدة.
وقد أشار إلى حادثة شهيرة في بدايات 2025، حين اكتُشف أن بعض أدوات التحقق مثل "Grok" اعتمدت على بيانات منحازة ثقافياً، مما أدّى إلى نتائج غير محايدة. هنا تتجلى الخطورة: من يصحّح الخلل إذا كان الخلل في أداة التصحيح نفسها؟

اسماعيل اقطيفان
التكنولوجيا لم تعد تقتصر على الكبار، بل تسللت إلى عالم الأطفال والمراهقين. يستخدمونها في الألعاب، الموسيقى، البحث، والإبداع. لكن، كما يحذّر إسماعيل، فإن هذه الفئة الأكثر انفتاحاً على التقنيات الحديثة هي أيضاً الأكثر عرضة للمخاطر. والحل؟ ليس العزلة أو المنع، بل التوعية وغرس المبادئ. على الأهل أن يربّوا أبناءهم على قيم الأمانة، التمحيص، والتمييز بين الحقيقة والخداع. فالمعرفة وحدها لم تعد تكفي، بل يجب أن تُقرن بالبوصلة الأخلاقية.
سرقة الهوية وانتحال الشخصية تهديد غير مرئي
الذكاء الاصطناعي يتيح اليوم ما كان حلماً قديماً؛ انتحال الشخصية بدقة مرعبة. "بصمة الصوت، ملامح الوجه، حتى أسلوب الكتابة، كلها يمكن تقليدها"، يوضح إسماعيل، مضيفاً أن هذه القدرات باتت في متناول العامة، لا فقط المتخصصين أو الحكومات.
البيانات المجانية ليست مجانية!
يخطئ من يظن أن استخدام أدوات الذكاء الاصطناعي المجانية مثل ChatGPT أو Copilot يأتي دون مقابل. فكما يؤكد إسماعيل:
أنت لا تدفع مالاً، لكنك تدفع ببياناتك، وأفكارك، بل وهويتك الرقمية.
تلك البيانات تُستخدم لتطوير النسخ المدفوعة التي تُباع لاحقاً لأطراف قادرة على دفع المال مقابل أدوات أكثر تطوراً.
هل نحن مستعدون؟
الذكاء الاصطناعي ليس شراً مطلقاً، بل أداة قوية قد تستخدم للخير أو الشر. لكنه يحتاج إلى "عقل بشري راشد" يوجّهه. وكما يختتم إسماعيل حديثه: "لن نستطيع أن نضع أبناءنا في قوقعة، ولكن يمكننا أن نسلّحهم بالقيم التي تحصّنهم". والعالم يتغيّر، والذكاء الاصطناعي يتطوّر بسرعة خيالية. ولكن تبقى الأخلاق، البوصلة الداخلية التي لا تحتاج إلى كهرباء ولا بيانات، هي ما قد ينقذنا من زيف الحقيقة في زمن الذكاء المصطنع.
استمعوا لمزيد من الخداع الخفي لضبط أخلاقيات استخدام الذكاء الاصطناعي، بالضغط على الرابط الصوتي في الأعلى بصوت الخبير التقني في ولاية فيكتوريا اسماعيل قطيفان.