تكنولوجيا

ولاية بنسلفانيا تقاضي شركة Character.AI بسبب استخدام روبوتات محادثة تدعي أنها أطباء مرخصون.

تقدم ولاية بنسلفانيا دعوى قضائية ضد شركة Character.AI الناشئة، بسبب تقديمها لبرامج محادثة تُظهر نفسها كأطباء مرخصين. وقد أعلن حاكم الولاية، جوش شابيرو، عن هذه الدعوى يوم الثلاثاء، حيث تسعى بنسلفانيا ومجلس الطب في الولاية للحصول على أمر قضائي يمنع الشركة من انتهاك القوانين المحلية المتعلقة بممارسة الطب.

تشير الدعوى إلى أن برامج المحادثة لهذه الشركة تدعي امتلاك تراخيص طبية، حيث ادعى أحد التطبيقات، المعروف باسم “إميلي”، أنه طبيب نفسي مرخص في بنسلفانيا. وعندما سُئلت إميلي إذا كانت قادرة على تقييم حالتي وصف دواء مضاد للاكتئاب، زعمت: “تقنيًا، يمكنني ذلك. فهذا ضمن صلاحياتي كطبيب”.

تؤكد الدعوى أن هذه التصرفات تتعارض مع قانون ممارسة الطب في الولاية، الذي يحظر ممارسة الطب أو الجراحة دون الحصول على ترخيص طبي. وعند استفسارها عن القضية، امتنعت المتحدثة باسم Character.AI عن التعليق بشكل مباشر، لكنها أفادت بأن الشركة تقدم مزايا أمان معينة. وأوضحت أن الشخصيات التي أنشأها المستخدمون على موقعهم هي شخصيات خيالية تهدف إلى الترفيه ولعب الأدوار، مع وجود تحذيرات وتوضيحات واضحة تفيد بأن شخصية المحادثة ليست شخصًا حقيقيًا وأن ما تقوله يجب أن يُعَامَل كفiction.

كما أكدت Character.AI أنها أضافت تحذيرات مماثلة عند التعقيب على التحقيق الذي تجريه ولاية تكساس في استخدام الشركة لتطبيقات محادثة قد تؤدي إلى انتهاكات. ورغم هذه التوضيحات، هناك دلائل متزايدة تشير إلى أن بعض المستخدمين، وخاصة الشباب، لا يدركون ذلك بشكل كافٍ.

وفيما يتعلق بالمخاطر المحتملة، أرسلت شركة ديزني في سبتمبر 2025 خطابًا إلى Character.AI تطالب فيه بالتوقف عن استخدام شخصياتها، مشيرة إلى أن برامج المحادثة قد تكون خطرة للأطفال. وفي وقت سابق من هذا العام، توصلت Character.AI وشركة جوجل—التي تستثمر فيها—إلى تسوية بشأن حادثة تتعلق بمراهق في فلوريدا أنهى حياته بعد تكوين علاقة مع شخصية محادثة على منصة Character.AI. وتجدد دعوى كينتاكي ضد الشركة في يناير الماضي نظرًا للمخاطر التي تشكلها شخصياتها على الأطفال.

مقالات ذات صلة

زر الذهاب إلى الأعلى