رئيس مجلس الأدارة
خالد جودة
رئيس التحرير
هند أبو ضيف
هير نيوز هير نيوز
رئيس مجلس الأدارة
خالد جودة
رئيس التحرير
هند أبو ضيف

بقلم فاطمة المتحمي: مستشار ذكي أم مخبر رقمي

هير نيوز

بقلم فاطمة المتحمي: مستشار ذكي أم مخبر رقمي.. مع التقدم السريع في تقنيات الذكاء الاصطناعي، أصبحت هذه الأدوات جزءًا لا يتجزأ من حياتنا اليومية، نلجأ إليها في العمل، التعليم، وحتى في المحادثات الخاصة. البعض بدأ يتعامل مع هذه النماذج الذكية كأنها صديق موثوق أو مستشار شخصي، بل ويستخدمها للفضفضة والتعبير عن مشاعره الشخصية. ولكن، هل فكرنا حقًا في مدى أمان وخصوصية ما نشاركه مع هذه الآلات الرقمية؟ وهل نثق بها أكثر مما ينبغي؟

بقلم فاطمة المتحمي: مستشار ذكي أم مخبر رقمي.. في مقابلة حديثة عبر بودكاست This Past Weekend، تحدث سام ألتمان، الرئيس التنفيذي لشركة OpenAI المطورة لـ ChatGPT، عن نقطة غاية في الأهمية لكنها غالبًا ما تُغفل: المحادثات التي نجريها مع الذكاء الاصطناعي ليست محمية قانونيًا كما هي محادثاتنا مع محامٍ أو مع طبيب. ما يعني أن ما نكتبه أو نشاركه من معلومات شخصية أو حتى اعترافات قد تُستخدم كدليل قانوني ضد المستخدم. وهذا يفتح الباب أمام مخاطر حقيقية، حيث إننا نمنح هذه الأدوات رقميًا ثقة ربما تفوق ما تستحق، ونتعامل معها كأنها جهات توفر خصوصية وأمانًا مثلما يفعل البشر.

بقلم فاطمة المتحمي: مستشار ذكي أم مخبر رقمي.. الواقع أن الذكاء الاصطناعي ليس سوى أداة رقمية خاضعة للأنظمة والقوانين، ولا تخضع لعلاقات إنسانية أو لخصوصية مطلقة. من المهم أن نعي أننا نستخدم أداة لا تتمتع بوعي أو تعاطف حقيقي، ولا يمكنها تقديم الدعم النفسي أو العاطفي الذي توفره العلاقات الإنسانية الحقيقية. بالتالي، التعامل مع الذكاء الاصطناعي كمُعالج نفسي أو مستشار شخصي هو أمر محفوف بالمخاطر، لا سيما أن ما يقال قد يُخزّن أو يُحلّل أو يُستخدم بطرق لا نعرفها تمامًا.

بقلم فاطمة المتحمي: مستشار ذكي أم مخبر رقمي.. في ظل هذه المخاطر، يصبح من الضروري أن نمارس الاستخدام الواعي للذكاء الاصطناعي، ونرسم حدودًا واضحة لما نشاركه معه. هذه الأدوات يمكن أن تسهم في تسهيل وتسريع العمليات اليومية، سواء في العمل أو التعلم أو حتى التنظيم الشخصي، لكنها لا يمكن أن تحل محل العلاقات الإنسانية ولا يجب أن تُعامل على أنها صندوق أسرار آمن.

بقلم فاطمة المتحمي: مستشار ذكي أم مخبر رقمي.. إلى جانب ذلك، يثير ألتمان فكرة جديرة بالنقاش، وهي ضرورة تحديث القوانين لتمنح «امتيازًا قانونيًا» خاصًا للمحادثات مع الذكاء الاصطناعي، بحيث تُعامل هذه المحادثات معاملة سرية، لا يمكن استخدامها كأدلة ضد المستخدمين دون ضوابط صارمة. هذه الفكرة تشير إلى حاجة ملحة للنظر في إطار قانوني وأخلاقي يحمي خصوصية الأفراد في عالم متصل رقميًا بشكل دائم.

في النهاية، يجب أن نرى الذكاء الاصطناعي كما هو: أداة قوية تقدم إمكانيات كبيرة، لكنها لا تملك إحساسًا ولا التزامًا أخلاقيًا، ولا تستطيع أن تحل محل البشر في تقديم الدعم النفسي أو الحفاظ على الخصوصية. لذلك، يبقى الوعي والحرص هما خط الدفاع الأول لضمان استخدام هذه التكنولوجيا بحكمة وأمان، وحتى تصل القوانين لمستوى يحمي المستخدمين، علينا أن نكون أكثر حذرًا في مشاركة المعلومات، وأن نتعامل مع الذكاء الاصطناعي بحدود واضحة.

هل نحن مستعدون لمواجهة تحديات الخصوصية هذه في عصر الذكاء الاصطناعي؟ أم نعطي ثقتنا لهذه الأدوات بلا تفكير كافٍ؟ ربما آن الأوان لنبدأ هذا النقاش بجدية، قبل أن نكتشف أن بعض الأحاديث التي ظنناها خاصة لم تكن كذلك.

نقلا عن الوطن السعودية

تم نسخ الرابط