مسؤولون كنديون يزعمون أن شركة OpenAI انتهكت قوانين الخصوصية الاتحادية والمحلية

أفادت فيليب دوفرين، المفوضة المعنية بالخصوصية في كندا، بأن شركة OpenAI لم تلتزم بالقوانين الفيدرالية والمحلية المتعلقة بالخصوصية أثناء تدريب نماذج الذكاء الاصطناعي الخاصة بها. جاءت هذه النتائج بعد إجراء تحقيق مشترك بين دوفرين ومسؤولين في ألبرتا، وكيبيك، وكولومبيا البريطانية، حيث وجدوا أن نهج OpenAI في جمع البيانات والحصول على الموافقة انتهاكًا للعديد من القوانين، بما في ذلك قانون حماية المعلومات الشخصية والوثائق الإلكترونية الكندي (PIPEDA)، الذي ينظم كيفية جمع الشركات واستخدام المعلومات الشخصية.
وحدد المفوضون الذين شاركوا في التحقيق عدة مشاكل تتعلق بالخصوصية، منها جمع الشركة كميات هائلة من المعلومات الشخصية دون وجود تدابير كافية لمنع استخدامها في تدريب نماذجها، وكذلك عدم حصولها على موافقة مسبقة لجمع تلك المعلومات. وقد أدرجت إشعارات في ChatGPT تشير إلى أن التفاعلات مع الذكاء الاصطناعي قد تُستخدم لأغراض التدريب، إلا أن البيانات التي تشتريها OpenAI أو تجلبها من مصادر خارجية تتضمن تفاصيل شخصية قد لا يكون أصحابها على دراية بها.
كما أُشير إلى أن مستخدمي ChatGPT ليس لديهم وسيلة للوصول إلى بياناتهم أو تصحيحها أو حذفها، وهو أمر آخر وجدته المفوضة مثيرًا للقلق. بالإضافة إلى ذلك، لم تكن محاولات OpenAI للاعتراف بعدم دقة بعض ردود ChatGPT كافية. مع ذلك، أكدت المفوضة أنها وجدت أن OpenAI كانت متجاوبة خلال التحقيق، وأن الشركة تعهدت بإجراء مجموعة من التعديلات على ChatGPT لضمان اتباع القوانين الكندية المتعلقة بالخصوصية.
وقد قامت OpenAI بإحالة نماذج قديمة كانت تنتهك القوانين الكندية، وتستخدم الآن “أداة تصفية لكشف وتعتيم المعلومات الشخصية (مثل الأسماء أو أرقام الهواتف) في البيانات المتاحة للجمهور والتي تُستخدم في تدريب نماذجها.” كما وافقت الشركة على إضافة إشعار جديد خلال الأشهر الثلاثة القادمة إلى النسخة غير المسجلة من ChatGPT، موضحةً أن المحادثات يمكن أن تُستخدم لأغراض التدريب وأن المعلومات الحساسة يجب ألا تُشارك.
خلال الستة أشهر التالية، ستعمل OpenAI على تحسين أدوات تصدير البيانات لتكون أكثر سهولة للفهم والاستخدام، وتقديم شرح أفضل حول كيفية الطعن في دقة المعلومات التي يوفرها ChatGPT. بالإضافة إلى ذلك، ستؤكد OpenAI للمفوضين أنها نفذت تدابير حماية قوية للبيانات المستقبلية التي ستتقاعد، لضمان عدم استخدامها في التطوير النشط، وستختبر تدابير حماية لأقارب الشخصيات العامة الذين ليسوا شخصيات عامة بأنفسهم، لضمان عدم مشاركة أسمائهم أو تواريخ ميلادهم.
على الرغم من أن التحقيق في سياسات الخصوصية لـ OpenAI قد بدأ في عام 2023، إلا أن الشركة واجهت تدقيقًا من المنظمين مؤخرًا بسبب ارتباطها بحادثة إطلاق نار جماعي وقعت في Tumbler Ridge في فبراير 2026. ووقعت OpenAI في عام 2025 بلاغًا يتعلق بحالة المشتبه به المحتمل، تحذيرًا من العنف الواقعي، لكنها لم تقم بنقل تلك المخاوف إلى السلطات الكندية. بعد الحادثة، طالبت الجهات التنظيمية الشركة بتغيير نهجها فيما يتعلق بالسلامة، واتفقت OpenAI في نهاية المطاف على التعاون بشكل أكبر مع وكالات إنفاذ القانون والصحة في كندا في المستقبل.



