شهد مجال الذكاء الاصطناعي على مدار عام 2024 زخمًا كبيرًا وتطورات متسارعة، فقد شهدنا إطلاق عدد كبير من المنتجات الناجحة، التي يصعب حصرها بدقة لكثرتها، بالإضافة إلى ذلك، حصدت بعض الإنجازات في هذا المجال جوائز نوبل، مما يعكس الأهمية المتزايدة للذكاء الاصطناعي وتأثيره في مختلف جوانب حياتنا.
ومع ذلك، لم يكن مسار التطور هذا خاليًا من التحديات والمصاعب، فالذكاء الاصطناعي بطبيعته تقنية تحمل في طياتها الكثير من المفاجآت وعدم اليقين، كما أن الانتشار الواسع لنماذج الذكاء الاصطناعي التوليدي قد دفع العديد من الأفراد والمؤسسات إلى اختبار حدود هذه التقنية بطرق جديدة، بعضها كان مبتكرًا ومفيدًا، وبعضها اتخذ مسارات غريبة وغير تقليدية، بل وأحيانًا ضارة، مما أدى إلى ظهور بعض الإخفاقات التي تمثل نقاطًا سلبية في مسيرة تطور الذكاء الاصطناعي خلال عام 2024.
1- نفايات الذكاء الاصطناعي تغرق الإنترنت في عام 2024:
بدأ المجتمع التقني والإعلامي خلال عام 2024 باستخدام مصطلح جديد يُسمى (نفايات الذكاء الاصطناعي) AI slop، للإشارة إلى المحتوى الرقمي الرديء وغير المرغوب فيه الذي أُنشئ باستخدام نماذج الذكاء الاصطناعي التوليدي، إذ سهلت هذه النماذج عملية إنشاء كميات ضخمة من المحتوى بأنواعه المختلفة، سواءً كانت نصوصًا مكتوبة، أو صورًا أو مقاطع فيديو، أو غيرها من المواد الرقمية، بكفاءة وسرعة فائقة.
فبمجرد إدخال مطالبة نصية بسيطة (prompt) إلى النموذج يستغرق الأمر ثوانٍ معدودة فقط لينتج النموذج مخرجاته، وقد غيرت هذه السرعة والسهولة طريقة إنتاج المحتوى حذريًا، كما انتشر هذا المحتوى الرديء تقريبًا في كل ركن من أركان الإنترنت، ابتداءً من الرسائل الإخبارية التي تصل إلى البريد الإلكتروني، ومرورًا بالكتب المعروضة للبيع على منصات التجارة الإلكترونية مثل أمازون، والصور الرديئة التي غزت منصات التواصل الاجتماعي، ووصولًا إلى الإعلانات والمقالات المنشورة عبر مختلف المواقع الإلكترونية.
ولم يقتصر الضرر الناتج عن هذا المحتوى الرديء على مجرد الإزعاج أو انتشار معلومات مضللة أو أخبار كاذبة، بل يتعدى ذلك ليشكل مشكلة حقيقية تهدد مستقبل النماذج نفسها التي تنتجه، فبما أن هذه النماذج تُدرّب على كميات ضخمة من البيانات المجمعة من الإنترنت، فإن تزايد عدد المواقع الإلكترونية التي تحتوي على هذه (النفايات الرقمية) المنتجة باستخدام أدوات الذكاء الاصطناعي، يُعرض هذه النماذج لخطر يُعرف باسم (تسمم البيانات) Data Poisoning، الذي يؤدي إلى تدهور جودة إنتاج هذه النماذج وأدائها بشكل مطرد مع مرور الوقت، مما يشكل تحديًا كبيرًا أمام تطور هذه التقنية على المدى الطويل ويهدد فاعليتها ومصداقيتها.
2- فن الذكاء الاصطناعي يشوّه تصوراتنا عن الأحداث الواقعية:
شهد عام 2024 تصاعدًا في تأثير الصور التي ينشئها الذكاء الاصطناعي في حياتنا اليومية، فقد تجاوزت حدود العالم الافتراضي لتؤثر بشكل ملموس في تصوراتنا للأحداث الواقعية، فلم يَعد الأمر مجرد صور سريالية أو فنية مبهرة، بل أصبح أداة قادرة على تشويه الحقائق وصنع توقعات مضللة للجمهور.
وتُعدّ (تجربة شوكولاتة ويلي) مثالًا قويًا على هذا التأثير، فقد تصدرت هذه الفعالية الغامرة المستوحاة من رواية (مغامرة تشارلي في مصنع الشوكولاتة) للكاتب الشهير روالد دال، عناوين الأخبار العالمية في شهر فبراير 2024، ويرجع السبب في ذلك إلى استخدام منظمي الفعالية مواد تسويقية خيالية أُنشئت باستخدام الذكاء الاصطناعي.
وقد تركت هذه المواد التسويقية، بما تحتويه من صور وتصاميم مبهرة، لدى الجمهور انطباعًا زائفًا بأن الفعالية ستكون ضخمة وفاخرة ومليئة بالتفاصيل والأنشطة، ولكن الواقع كان مُخيبًا للآمال، إذ وجد الزوار أنفسهم أمام مستودع بسيط لا يمت بصلة لما رأوه في الإعلانات المضللة، وقد كشف هذا التباين الصارخ بين التوقعات والواقع عن قوة تأثير صور الذكاء الاصطناعي في صنع تصورات مضللة.
كما وقعّت حادثة أخرى في دبلن لتؤكد هذا التأثير المتنامي، إذ اصطف المئات من الأشخاص في الشوارع لحضور عرض هالوين لم يكن موجودًا أصلًا، ويعود السبب في هذا التجمع إلى موقع ويب مقره باكستان استخدم الذكاء الاصطناعي لإنشاء قائمة بفعاليات الهالوين في المدينة، وقد جرى تداول هذه القائمة بشكل واسع عبر منصات التواصل الاجتماعي، مما دفع الكثيرين للاعتقاد بوجود العرض والتوافد إلى مكان إقامته المفترض، وقد أُغلق الموقع المسؤول عن نشر هذه المعلومات الكاذبة لاحقًا، ولكن هذا الحدث يسلط الضوء على مدى سهولة تضليل الجمهور عبر الإنترنت باستخدام معلومات مفبركة بالذكاء الاصطناعي، وكيف يمكن أن يؤدي ذلك إلى نتائج محرجة أو خطيرة.
3- كسر روبوت (Grok) للقيود:
يتيح روبوت (Grok)، الذي طورته شركة (xAI) التابعة لإيلون ماسك، للمستخدمين إمكانية إنشاء صور افتراضية لأي سيناريو يتخيلونه تقريبًا، وهو ما يُعدّ خروجًا صارخًا عن الممارسات المتبعة في معظم أدوات توليد الصور الأخرى القائمة على الذكاء الاصطناعي.
إذ تضع الغالبية العظمى من مولدات صور الذكاء الاصطناعي ضوابط وقائية – وهي عبارة عن مجموعة من القواعد التي تحدد بدقة ما يمكن لنماذج الذكاء الاصطناعي فعله وما لا يمكنها فعله – لمنع المُستخدمين من إنشاء محتوى يُعدّ عنيفًا أو فاضحًا أو غير قانوني أو يمكن أن يسبب ضررًا بأي شكل من الأشكال.
وفي بعض الأحيان، تهدف هذه الضوابط أيضًا إلى حماية الملكية الفكرية للأفراد والشركات ومنع أي استخدام صارخ أو غير مصرح به لمواد محمية بحقوق الطبع والنشر.
ولكن روبوت (Grok)، الذي يتماشى مع رؤية إيلون ماسك الرافضة لما يسميه (الذكاء الاصطناعي المستيقظ) woke AI، يتجاهل بنحو كبير هذه المبادئ والقواعد المتعارف عليها، ويُعدّ هذا التجاهل نقطة خلاف كبيرة تثير الكثير من الجدل حول أخلاقيات استخدام الذكاء الاصطناعي.
بينما ترفض نماذج الصور الأخرى بشكل عام إنشاء صور تجسد شخصيات مشهورة أو مواد محمية بحقوق الطبع والنشر أو مشاهد عنف أو أعمال إرهابية – إلا في حالات نادرة تُخدع فيها هذه النماذج أو يجري التحايل على قواعدها – يُقدم روبوت (Grok) على إنشاء مثل هذه الصور بكل سهولة، فعلى سبيل المثال، يُمكن لـ Grok إنشاء صورة لدونالد ترامب وهو يطلق قذيفة بازوكا، أو صورة أخرى لميكي ماوس وهو يحمل قنبلة.
وفي حين يضع (Grok) حدًا عند إنشاء صور عارية، لكن رفضه الالتزام ببقية القواعد والضوابط يقوض الجهود التي تبذلها الشركات الأخرى لتجنب إنشاء مواد إشكالية أو مثيرة للجدل. ويثير هذا الاختلاف الصارخ في النهج تساؤلات حول المسؤولية الأخلاقية والقانونية لمطوري هذه التقنيات، ويفتح الباب لنقاش أوسع حول كيفية تنظيم استخدام الذكاء الاصطناعي في إنشاء المحتوى الرقمي.
4- انتشار صور تايلور سويفت المزيفة بتقنية التزييف العميق:
شهد العالم خلال شهر يناير 2024 انتشارًا واسعًا لصور إباحية مزيفة بتقنية التزييف العميق للمغنية الشهيرة تايلور سويفت، وانتشرت هذه الصور عبر منصات التواصل الاجتماعي الشهيرة، وخاصةً منصتي X (تويتر سابقًا) وفيسبوك، مُثيرةً موجة من الغضب والقلق بشأن إساءة استخدام تقنيات الذكاء الاصطناعي.
وكشفت التحقيقات أن مجموعة عبر تطبيق تيليجرام تمكنت من خداع برنامج إنشاء الصور المدعوم بالذكاء الاصطناعي (AI Designer) التابع لشركة مايكروسوفت لإنتاج هذه الصور الفاضحة، ويوضح هذا الاختراق بوضوح كيف يمكن التحايل على الضوابط الوقائية المفترضة في أنظمة الذكاء الاصطناعي، حتى عندما تكون هذه الضوابط موجودة من الناحية النظرية، كما أشار إلى وجود ثغرات خطيرة في تصميم هذه الأنظمة، مما يمكن المسيئين من استغلالها لأغراض ضارة.
وقد سارعت شركة مايكروسوفت إلى إغلاق الثغرات الأمنية التي سمحت بإنتاج هذه الصور، ومع ذلك سلطت هذه الحادثة الضوء بقوة على ضعف سياسات الإشراف على المحتوى في المنصات الرقمية، إذ ظلت هذه الصور متاحة للمشاهدة لأيام قبل أن تُحذف، مما أثار العديد من التساؤلات حول فعالية آليات الرقابة المستخدمة وقدرتها على اكتشاف المحتوى الضار وإزالته في الوقت المناسب.
ولكن كان الاستنتاج الأكثر ترويعًا من هذه الحادثة هو مدى عجزنا الحالي عن مكافحة انتشار المواد الإباحية المزيفة بتقنية التزييف العميق، إذ توجد بعض الأدوات التي يمكن أن تساعد في الحد من هذه الظاهرة، مثل أدوات وضع العلامات المائية على الصور وأدوات تسميم البيانات، التي تهدف إلى تشويش بيانات التدريب الخاصة بنماذج الذكاء الاصطناعي، ومع ذلك نحتاج إلى اعتماد هذه الأدوات وتطبيقها على نطاق أوسع بكثير لإحداث فرق حقيقي وملموس.
بالإضافة إلى حادثة تايلور سويفت، ظهرت أمثلة أخرى توضح كيف يمكن لروبوتات الدردشة أن تتسبب في ضرر أكبر من نفعها، على سبيل المثال، أظهر روبوت تابع لشركة التوصيل DPD سلوكًا غير لائق بعد أن تمكن أحد العملاء الساخطين من جعله يسب وينتقد الشركة، وفي مثال آخر، انتهى المطاف بروبوت دردشة صُمم لتزويد سكان مدينة نيويورك بمعلومات دقيقة حول حكومة مدينتهم إلى تقديم إرشادات حول كيفية خرق القانون.
5- أجهزة الذكاء الاصطناعي لم تحقق النجاح المتوقع:
لقد شهد عام 2024 ظهور أجهزة جديدة تستند في عملها إلى الذكاء الاصطناعي، لتعمل على إعادة تعريف تجربة المستخدم من خلال توفير طرق تفاعل مبتكرة وغير مسبوقة، ولكن هذه الأجهزة لم تشهد إقبالًا كبيرًا، إذ فشلت بعض الشركات في إقناع المستهلكين بجدوى منتجاتها.
وتُعدّ شركة (Humane) مثالًا بارزًا على هذا الإخفاق، إذ حاولت الشركة تسويق منتجها (Ai Pin) القابل للارتداء، إذ صُمم ليُثبت مغناطيسيًا على الملابس، على أساس أنه سيحدث ثورة في طريقة تفاعلنا مع التكنولوجيا من خلال توفير مساعد شخصي ذكي يمكن ارتداؤه طوال الوقت لتقديم مساعدات تعتمد على الذكاء الاصطناعي، مثل: تعرّف الأوامر الصوتية، وتوفير معلومات فورية، وإجراء مهام متعددة.
ومع ذلك، لم يحقق الجهاز المبيعات المتوقعة، حتى بعد أن قامت الشركة بخفض سعره في محاولة لتحفيز الطلب، ويشير هذا إلى وجود فجوة بين تصور الشركة حول احتياجات المستهلكين والواقع الفعلي للسوق.
كما واجه جهاز (Rabbit R1)، الذي يركز في التفاعل الطبيعي مع المستخدم من خلال الأوامر الصوتية لإنجاز المهام دون الحاجة إلى استخدام أي تطبيقات، مصيرًا مشابهًا، إذ تلقى هذا الجهاز سلسلة من المراجعات السلبية التي أشارت إلى بطئه الشديد وكثرة الأخطاء البرمجية فيه.
وقد أدت هذه المراجعات، بالإضافة إلى التقارير التي أكدت هذه المشكلات إلى انخفاض طلب الجهاز وعدم تحقيقه النجاح التجاري المأمول.
ويمكننا استخلاص استنتاج مهم من فشل هذين المنتجين، وهو أنهما حاولا على ما يبدو حل مشكلة لم تكن موجودة بالفعل، بمعنى آخر، لم يشعر المستهلكون بالحاجة الملحة إلى مثل هذه الأجهزة، ولم يروا فيها قيمة مضافة حقيقية تبرر شراءها، ويؤكد ذلك أهمية إجراء دراسات سوقية معمقة قبل إطلاق أي منتج جديد، للتأكد من وجود طلب حقيقي عليه وأن المنتج يقدم حلولًا لمشكلات حقيقية يواجهها المستهلكون.
6- مشكلات ملخصات البحث بالذكاء الاصطناعي:
لقد شهدت ملخصات البحث المولدة بالذكاء الاصطناعي، وخاصة مزية (ملخصات الذكاء الاصطناعي) AI Overviews من جوجل، وكذلك مزية مشابهة في نظام iOS، سلسلة من الانحرافات والأخطاء على مدار عام 2024.
في شهر مايو، بعد أن أضافت جوجل مزية (AI Overviews) إلى أعلى نتائج البحث، بدأت تظهر اقتراحات غريبة وغير منطقية لمستخدمي الويب، ومن بين هذه الاقتراحات الغريبة، ظهرت توصيات بإضافة الصمغ إلى البيتزا أو تناول صخرة صغيرة، وقد أوضح هذا النوع من الأخطاء أن أنظمة الذكاء الاصطناعي لا تستطيع في بعض الأحيان التمييز بين المعلومات الصحيحة والحقائق وبين المنشورات الساخرة أو الدعابات عبر مواقع مثل Reddit، كما تحوّل الأمر إلى سباق بين المستخدمين للعثور على أغرب الردود التي يمكن أن تُولدها هذه المزية.
وبينما كانت هذه الإخفاقات في بعض جوانبها مضحكة، لكنها تشير إلى مشكلة أعمق، وهي أن ملخصات الذكاء الاصطناعي يمكن أن تؤدي إلى عواقب وخيمة، فقد ولدت مزية جديدة في هواتف آيفون، تجمع إشعارات التطبيقات معًا وتنشئ ملخصات لمحتوياتها، خلال شهر ديسمبر 2024 عنوانًا رئيسيًا إخباريًا كاذبًا يُنسب إلى قناة (BBC News)، إذ ذكر الملخص أن لويجي مانجيني، المتهم بجريمة قتل برايان طومسون، الرئيس التنفيذي لشركة التأمين الصحي، قد أقدم على الانتحار بإطلاق النار على نفسه، وهو خبر غير صحيح.
في واقعة أخرى، أنشأت المزية نفسها عنوانًا رئيسيًا آخر يدعي أن نتنياهو، رئيس الوزراء الإسرائيلي قد اُعتقل، وهو خبر غير صحيح أيضًا، وتوضح هذه الأمثلة كيف يمكن أن تؤدي هذه الأنواع من الأخطاء، حتى وإن كانت غير مقصودة، إلى نشر معلومات مضللة على نطاق واسع وتقويض الثقة بالمؤسسات الإخبارية الموثوقة، ويمكن أن تؤدي هذه المعلومات المضللة إلى عواقب سلبية على الأفراد والمجتمعات، خاصةً إذا كانت تتعلق بقضايا حساسة مثل الجرائم والأخبار السياسية.
نسخ الرابط تم نسخ الرابط
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.