5 أسئلة لا يجب طرحها على ChatGPT وأدوات الذكاء الاصطناعي

رغم الانتشار الواسع لأدوات مثل ChatGPT وGoogle Gemini، تتزايد التحذيرات من الاعتماد الكامل عليها في بعض الملفات الحساسة، خاصة مع مخاطر تتعلق بالخصوصية ودقة المعلومات والقرارات المصيرية.

قد تشاهد:محمد مختار جمعة يؤكد التعايش في مؤتمر الذكاء الاصطناعي بفاس

في مقدمة الأمور التي ينصح بتجنبها، عدم إدخال أسرار مهنية أو بيانات حساسة مثل كلمات المرور أو معلومات العملاء أو التقارير الداخلية، مع تحذيرات من التعامل مع أدوات الذكاء الاصطناعي باعتبارها مساحة مغلقة بالكامل، في ظل استخدام بعض الشركات للمدخلات في تحسين النماذج.

قد تشاهد:المملكة تتصدر عالميا في امن الذكاء الاصطناعي

كما تشمل التحذيرات الاعتماد على هذه الأدوات في التشخيص الطبي أو النفسي، إذ يمكن استخدامها لفهم معلومات عامة، لكن لا يمكن اعتبارها بديلا عن الطبيب أو التقييم المهني المتخصص. داخل هذا الملف، تبرز مخاوف مرتبطة باتخاذ قرارات صحية بناء على معلومات غير مكتملة.

في المقابل، تمتد التحذيرات الى طلب نصائح قانونية أو قرارات مالية مصيرية، مع التنبيه الى أن النماذج قد تقدم معلومات غير دقيقة بثقة عالية. الاعتماد على الذكاء الاصطناعي في مثل هذه الملفات قد يقود الى قرارات مكلفة، خصوصا دون مراجعة متخصصين.

ومن بين النقاط المطروحة أيضا تجنب الطلبات غير القانونية أو غير الأخلاقية، إلى جانب عدم تحويل الأداة الى بديل كامل في اتخاذ القرار الشخصي أو المهني. الفكرة الأساسية، بحسب المتخصصين، أن هذه الأدوات صممت لدعم التفكير لا لاستبداله.

في الوقت نفسه، يتزايد الحديث عن أهمية الاستخدام الواعي لهذه التقنيات مع توسع حضورها اليومي. بعض الخبراء يرون أن الخطر لا يكمن في الأدوات نفسها، بل في طريقة استخدامها. الاعتماد المفرط دون تفكير نقدي قد يكون المشكله الأهم في هذه المرحلة.

شارك المقال

فيسبوك تويتر واتساب تليجرام

مقالات هامة لك

آخر 24 ساعة