حذر خبراء التكنولوجيا من الاستخدام المتزايد للمنصة الصينية للذكاء الاصطناعي “DeepSeek”، وسط مخاوف تتعلق بنشر المعلومات المضللة وإمكانية استغلال الحكومة الصينية لبيانات المستخدمين.
التطبيق، الذي أصبح الأكثر تحميلاً في كل من الولايات المتحدة والمملكة المتحدة، تسبب في خسارة تريليون دولار من القيمة السوقية لأكبر مؤشر لأسهم التكنولوجيا الأمريكية هذا الأسبوع، ما أثار قلقًا عالميًا.
قدرات تقنية وسعر تنافسي يثير المخاوف
أحدث “DeepSeek” ضجة كبيرة في مجال الذكاء الاصطناعي، إذ أظهر قدرات أداء مماثلة لتطبيقات مثل “ChatGPT” ولكن بتكلفة أقل بكثير، مما يجعله منافسًا قويًا في هذا القطاع. الرئيس الأمريكي السابق دونالد ترامب وصف ظهوره بأنه “إنذار” لشركات التكنولوجيا الكبرى، محذرًا من تداعيات سيطرة الصين على قطاع الذكاء الاصطناعي عالميًا.
مخاطر مشاركة البيانات مع الحكومة الصينية
أثار العديد من الباحثين تساؤلات حول مستوى الأمان في التطبيق، حيث قال أستاذ الذكاء الاصطناعي بجامعة أكسفورد، مايكل وولدردج، في تصريح لصحيفة “الغارديان”:
“لا يمكن استبعاد احتمال مشاركة البيانات المدخلة عبر التطبيق مع الحكومة الصينية.”
وحذر المستخدمين من إدخال أي بيانات شخصية أو حساسة، مؤكدًا: “لا تعرف أين تذهب بياناتك.”
بدورها، أكدت ديم وندي هول، عضو الهيئة الاستشارية الرفيعة للأمم المتحدة في مجال الذكاء الاصطناعي، أن الشركات الصينية ملزمة قانونيًا بالتعاون مع الحكومة، مما يجعل حماية البيانات تحديًا كبيرًا.
مخاوف من نشر التضليل الإعلامي
حذر روس بيرلي، مؤسس مركز “المرونة المعلوماتية”، من أن عدم وجود رقابة على مثل هذه المنصات قد يسمح باستخدامها لنشر الأخبار الزائفة وتقويض الثقة العامة، وهو ما قد يهدد الديمقراطيات حول العالم.
وتؤكد التقارير أن “DeepSeek” قد يكون أداة لنشر الروايات السياسية الصينية، حيث أظهرت تجارب بعض المستخدمين أنه يرفض تقديم إجابات تفصيلية حول القضايا الحساسة، كما أنه عند سؤاله عن وضع تايوان، كرر موقف الحكومة الصينية الرسمية التي تعتبر الجزيرة جزءًا لا يتجزأ من الصين.
الشركات مطالبة بالحذر عند استخدام الذكاء الاصطناعي
مع تصاعد القلق حول المخاطر المرتبطة باستخدام منصات الذكاء الاصطناعي في معالجة البيانات الحساسة، يؤكد الخبراء ضرورة أن تكون الشركات أكثر وعيًا بمخاطر القوانين الصينية، التي تفرض على جميع المؤسسات التعاون مع أجهزة الاستخبارات الوطنية.