تقنية

يحذر سام ألمان من عدم وجود سرية قانونية عند استخدام chatgpt كمعالج


قد يرغب مستخدمو ChatGPT في التفكير مرتين قبل اللجوء إلى تطبيق الذكاء الاصطناعى الخاص بهم للعلاج أو أنواع أخرى من الدعم العاطفي. وفقًا لرئيس شركة Openai Sam Altman ، لم تحسب صناعة الذكاء الاصطناعى كيفية حماية خصوصية المستخدم عندما يتعلق الأمر بهذه المحادثات الأكثر حساسية ، لأنه لا توجد سرية للمريض الطبيب عندما يكون DOC من الذكاء الاصطناعي.

أدلى Exec بهذه التعليقات على حلقة حديثة من Podcast Theo Von ، في نهاية الأسبوع الماضي مع ثيو فون.

https://www.youtube.com/watch؟v=ayn8vkw6vxa

رداً على سؤال حول كيفية عمل الذكاء الاصطناعي مع النظام القانوني اليوم ، قال Altman إن إحدى مشاكل عدم وجود إطار قانوني أو سياسي لمنظمة العفو الدولية هي أنه لا توجد سرية قانونية لمحادثات المستخدمين.

قال ألتمان: “يتحدث الناس عن الأكثر شخصية في حياتهم إلى ChatGpt”. “يستخدمه الناس – الشباب ، على وجه الخصوص ، يستخدمونه – كمعالج ، مدرب حياة ؛ وجود مشاكل في العلاقة هذه و [asking] ‘ماذا علي أن أفعل؟’ والآن ، إذا تحدثت إلى معالج أو محام أو طبيب حول تلك المشكلات ، فهناك امتياز قانوني لذلك. هناك سرية الطبيب والمريض ، هناك سرية قانونية ، أيا كان. ولم نكتشف ذلك بعد عندما تتحدث إلى ChatGpt. “

وأضاف Altman أن هذا قد يخلق قلقًا خصوصية للمستخدمين في حالة الدعوى القضائية ، لأن Openai سيكون مطلوبًا قانونًا لإنتاج تلك المحادثات اليوم.

وقال ألتمان: “أعتقد أن هذا مشدود للغاية. أعتقد أنه يجب أن يكون لدينا نفس مفهوم الخصوصية لمحادثاتك مع الذكاء الاصطناعى الذي نفعله مع المعالج أو أي شيء – ولم يكن على أحد أن يفكر في ذلك حتى قبل عام”.

تدرك الشركة أن عدم وجود خصوصية يمكن أن يكون مانعًا لتبني المستخدم الأوسع. بالإضافة إلى طلب الذكاء الاصطناعى على الكثير من البيانات عبر الإنترنت خلال فترة التدريب ، يُطلب منه إنتاج بيانات من محادثات المستخدمين في بعض السياقات القانونية. بالفعل ، كانت Openai تقاتل أمرًا من المحكمة في دعوى قضائية مع صحيفة نيويورك تايمز ، والتي تتطلب من ذلك توفير دردشات لمئات الملايين من مستخدمي chatgpt على مستوى العالم ، باستثناء أولئك من عملاء ChatGpt Enterprise.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

في بيان على موقعه على الإنترنت ، قال Openai إنه يجذب هذا الطلب ، والذي أطلق عليه “Overreach”. إذا تمكنت المحكمة من تجاوز قرارات Openai الخاصة بشأن خصوصية البيانات ، فيمكنها فتح الشركة لمواصلة الطلب على اكتشاف قانوني أو أغراض إنفاذ القانون. يتم استدعاء شركات التكنولوجيا اليوم بانتظام لبيانات المستخدم من أجل المساعدة في الملاحقات الجنائية. ولكن في السنوات الأخيرة ، كانت هناك مخاوف إضافية بشأن البيانات الرقمية حيث بدأت القوانين في الحد من الوصول إلى الحريات المنشأة سابقًا ، مثل حق المرأة في الاختيار.

عندما ألغت المحكمة العليا Roe v. Wade ، على سبيل المثال ، بدأ العملاء في التحول إلى تطبيقات تتبع الفترة الخاصة أو إلى Apple Health ، والتي قامت بتشفير سجلاتهم.

سأل Altman من مضيف البودكاست عن استخدامه ChatGpt الخاص ، نظرًا لأن فون قال إنه لم يتحدث إلى AI chatbot بسبب مخاوفه الخاصة.

“أعتقد أنه من المنطقي … أن تريد حقًا وضوح الخصوصية قبل استخدامك [ChatGPT] الكثير – مثل الوضوح القانوني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى