القائمة الرئيسية

الصفحات

5 معلومات لا يجب إدخالها في ChatGPT ابدا ... تحذير مهم للمستخدمين

معلومات لا يجب إدخالها في ChatGPT ابدا

5 معلومات لا يجب إدخالها في ChatGPT ابدا، مع التحول السريع للذكاء الاصطناعي إلى عنصر أساسي في الحياة الرقمية اليومية، تتزايد التحذيرات بشأن مخاطر الاستخدام غير الآمن لهذه التقنيات، وفي مقدمتها روبوت المحادثة الشهير ChatGPT، الذي بات جزءًا لا غنى عنه لملايين المستخدمين حول العالم.

ووفقًا لبيانات حديثة، يتعامل ChatGPT مع ما يقرب من 2.5 مليار طلب يوميًا، تستحوذ الولايات المتحدة وحدها على نحو 330 مليون طلب، ما يجعله من أكثر المنصات التقنية استخدامًا عالميًا، بحسب موقع SlashGear.

 5 معلومات لا يجب إدخالها في ChatGPT ابدا

بعكس محركات البحث التقليدية التي تعرض روابط ومصادر، يعتمد ChatGPT على التفاعل الحواري المباشر، وهو ما يمنح المستخدم شعورًا زائفًا بالخصوصية، ويدفع كثيرين إلى مشاركة معلومات حساسة دون إدراك المخاطر المترتبة على ذلك.

ومع استمرار الجدل حول أمن البيانات وحدود حماية الخصوصية في تقنيات الذكاء الاصطناعي، يبرز تساؤل مهم: ما المعلومات التي لا يجب إدخالها في ChatGPT؟.

1- المعلومات الشخصية القابلة للتعريف

تأتي البيانات الشخصية الحساسة في مقدمة المعلومات التي يُحظر مشاركتها، وتشمل:

  • الاسم الكامل

  • العنوان

  • رقم الهوية

  • رقم الهاتف

  • البريد الإلكتروني

وأظهرت دراسة أجرتها شركة Safety Detectives على أكثر من ألف محادثة عامة في ChatGPT أن عددًا كبيرًا من المستخدمين قاموا بمشاركة بيانات شخصية شديدة الحساسية، بل وصل الأمر إلى إدخال أسماء مستخدمين وكلمات مرور.

ويحذر خبراء الأمن السيبراني من أن تسريب هذه البيانات قد يؤدي إلى سرقة الهوية أو الوقوع ضحية لعمليات احتيال إلكتروني.

2- البيانات المالية والمصرفية

رغم أن ChatGPT قد يكون مفيدًا في التخطيط المالي النظري، فإن إدخال أي معلومات مالية حقيقية يمثل خطرًا كبيرًا، مثل:

  • أرقام الحسابات البنكية

  • بيانات بطاقات الائتمان

  • السجلات الضريبية

فهذه المنصة لا تعمل ضمن معايير الحماية المصرفية الصارمة، ما يجعل البيانات المدخلة عرضة للاختراق أو سوء الاستخدام.

3- المعلومات الطبية والصحية

يلجأ عدد متزايد من المستخدمين إلى الذكاء الاصطناعي للحصول على استشارات صحية، وتشير إحصاءات إلى أن واحدًا من كل ستة بالغين يستخدم هذه الأدوات شهريًا لهذا الغرض.

لكن مشاركة التشخيصات الطبية، أو نتائج التحاليل، أو التاريخ المرضي، خاصة إذا ارتبطت بمعلومات تعريفية، قد يخرج هذه البيانات من نطاق أنظمة حماية المعلومات الصحية، ويجعل التحكم فيها لاحقًا أمرًا بالغ الصعوبة.

4- مستندات العمل والملفات السرية

تحذر التقارير من إدخال أي محتوى مهني أو ملفات سرية في ChatGPT، سواء كانت تقارير داخلية، أو مراسلات رسمية، أو بيانات تخص عملاء ومشاريع غير معلنة.

حتى محاولات إعادة صياغة رسائل البريد الإلكتروني أو تلخيص ملفات العمل قد تؤدي دون قصد إلى تعريض حقوق الملكية الفكرية أو المعلومات القانونية الحساسة لمخاطر غير محسوبة.

5- أي محتوى غير قانوني

يشدد المختصون على تجنب إدخال أي محتوى ينتهك القوانين المحلية أو الدولية، إذ تؤكد شركة OpenAI التزامها بالتعاون مع الجهات القانونية المختصة عند الطلب.

كما أن القوانين الرقمية تتغير باستمرار، وقد تتحول ممارسات كانت مقبولة سابقًا إلى مخالفات قانونية في وقت قصير.

القاعدة الذهبية لاستخدام ChatGPT بأمان

يرى خبراء التقنية أن المبدأ الأساسي في التعامل مع ChatGPT هو عدم مشاركة أي معلومة لا ترغب في رؤيتها منشورة على منصة عامة.

ورغم الإمكانات الكبيرة التي توفرها أدوات الذكاء الاصطناعي، يظل الوعي الرقمي والحذر هما خط الدفاع الأول للمستخدمين في عصر تتسارع فيه وتيرة التكنولوجيا بشكل غير مسبوق.

تعليقات

التنقل السريع