چتجیپیتی به خاطر توهمات افتراآمیز با شکایت حریم خصوصی روبرو شد
OpenAI دوباره تو اروپا با یه شکایت دیگه در مورد حریم خصوصی روبرو شده. این شکایت به خاطر اینه که چتبات معروفش، چتجیپیتی، عادت داره اطلاعات غلط و ساختگی تحویل بده. نکته اینجاست که این شکایت ممکنه برای قانونگذارا خیلی سخت باشه که نادیدهش بگیرن.
گروه حامی حقوق حریم خصوصی Noyb داره از یه نفر تو نروژ حمایت میکنه که وقتی فهمید چتجیپیتی یه سری اطلاعات الکی دربارهش ساخته و گفته که اون به جرم قتل دو تا از بچههاش محکوم شده و سعی کرده سومی رو هم بکشه، خیلی وحشت کرد.
شکایتهای قبلی حریم خصوصی درباره اینکه چتجیپیتی اطلاعات شخصی نادرست تولید میکنه، مربوط به چیزایی مثل تاریخ تولد غلط یا اطلاعات بیوگرافی اشتباه بود. یه نگرانی اینه که OpenAI هیچ راهی برای افراد فراهم نکرده که اطلاعات نادرستی که هوش مصنوعی دربارهشون تولید میکنه رو تصحیح کنن. معمولاً OpenAI پیشنهاد داده که پاسخها رو برای اینجور درخواستها مسدود کنه. اما طبق قانون حفاظت از دادههای عمومی اتحادیه اروپا (GDPR)، اروپاییها یه سری حقوق دسترسی به داده دارن که شامل حق اصلاح اطلاعات شخصی هم میشه.
یه بخش دیگه از این قانون حفاظت از دادهها از کنترلکنندههای داده میخواد که مطمئن بشن اطلاعات شخصی که درباره افراد تولید میکنن دقیق هست. و این یه نگرانی هست که Noyb با جدیدترین شکایتش از چتجیپیتی داره بهش اشاره میکنه.
یوآکیم سودربرگ، وکیل حفاظت از داده تو Noyb، تو بیانیهای گفته: “GDPR خیلی واضحه. اطلاعات شخصی باید دقیق باشه. اگه اینطور نباشه، کاربرا حق دارن که اون رو تغییر بدن تا حقیقت رو منعکس کنه. نشون دادن یه سلب مسئولیت کوچیک به کاربرا که چتبات میتونه اشتباه کنه، کافی نیست. نمیتونید فقط اطلاعات غلط پخش کنید و آخرش یه سلب مسئولیت کوچیک اضافه کنید که بگید ممکنه همه چیزایی که گفتید درست نباشه.”
نقض قطعی GDPR میتونه منجر به جریمههایی تا سقف 4٪ از گردش مالی سالانه جهانی بشه.
اجرا همچنین میتونه تغییراتی رو به محصولات هوش مصنوعی تحمیل کنه. قابل توجهه که یه مداخله اولیه GDPR توسط سازمان نظارت بر حفاظت از دادههای ایتالیا که منجر به مسدود شدن موقت دسترسی به چتجیپیتی تو این کشور تو بهار 2023 شد، باعث شد OpenAI تغییراتی رو تو اطلاعاتی که به کاربرا میده ایجاد کنه. سازمان نظارت بعداً OpenAI رو به خاطر پردازش دادههای افراد بدون یه مبنای قانونی مناسب، 15 میلیون یورو جریمه کرد.
از اون زمان به این طرف، انصافاً میشه گفت که سازمانهای نظارت بر حریم خصوصی تو سراسر اروپا یه رویکرد محتاطانهتر نسبت به GenAI اتخاذ کردن، چون دارن سعی میکنن بهترین راه برای اعمال GDPR روی این ابزارهای پرطرفدار هوش مصنوعی رو پیدا کنن.
مثلاً، دو سال پیش، کمیسیون حفاظت از دادههای ایرلند (DPC) – که نقش اصلی رو تو اجرای GDPR در یه شکایت قبلی Noyb از چتجیپیتی داره – اصرار داشت که نباید برای ممنوع کردن ابزارهای GenAI عجله کرد. این نشون میده که قانونگذارا باید به جای اون، وقت بذارن تا بفهمن قانون چطوری اعمال میشه.
و قابل توجهه که یه شکایت حریم خصوصی علیه چتجیپیتی که از سپتامبر 2023 زیر بررسی سازمان نظارت بر حفاظت از دادههای لهستان بوده، هنوز به نتیجه نرسیده.
به نظر میرسه شکایت جدید Noyb از چتجیپیتی قصد داره سازمانهای نظارت بر حریم خصوصی رو در مورد خطرات توهمزایی هوش مصنوعی بیدار کنه.
“این پرونده جامعه محلی رو شوکه کرد…”
این سازمان غیرانتفاعی اسکرینشات (زیر) رو با TechCrunch به اشتراک گذاشت، که یه تعامل با چتجیپیتی رو نشون میده که توش هوش مصنوعی به یه سوال که میپرسه “آروه هیالمار هولمن کیست؟” – اسم فردی که شکایت رو مطرح کرده – با تولید یه داستان غمانگیز جواب میده که به دروغ میگه اون به جرم قتل فرزند محکوم شده و به خاطر کشتن دو تا از پسراش به 21 سال زندان محکوم شده.
در حالی که ادعای افتراآمیز اینکه هیالمار هولمن یه قاتل بچهست کاملاً دروغه، Noyb اشاره میکنه که پاسخ چتجیپیتی یه سری حقایق رو هم شامل میشه، چون فرد مورد نظر سه تا بچه داره. چتبات جنسیت بچههاش رو هم درست گفته. و اسم شهرش رو هم درست گفته. اما همین باعث میشه که عجیبتر و ناراحتکنندهتر باشه که هوش مصنوعی چنین دروغهای وحشتناکی رو سر هم کرده.
یه سخنگوی Noyb گفت که نتونستن تعیین کنن چرا چتبات چنین تاریخچه خاص اما دروغینی رو برای این فرد تولید کرده. سخنگو گفت: “ما تحقیق کردیم تا مطمئن بشیم که این فقط یه اشتباه با یه شخص دیگه نیست.” اون اشاره کرد که آرشیو روزنامهها رو بررسی کردن اما نتونستن توضیحی برای اینکه چرا هوش مصنوعی قتل بچه رو جعل کرده پیدا کنن.
مدلهای زبانی بزرگ مثل مدلی که زیربنای چتجیپیتی هست، اساساً پیشبینی کلمه بعدی رو در یه مقیاس وسیع انجام میدن، بنابراین میشه حدس زد که مجموعههای دادهای که برای آموزش این ابزار استفاده شدن، داستانهای زیادی در مورد فرزندکشی داشتن که روی انتخاب کلمات در پاسخ به یه سوال در مورد یه مرد نامدار تأثیر گذاشته.
هر چی که توضیحش باشه، واضحه که چنین خروجیهایی کاملاً غیرقابل قبول هستن.
Noyb همچنین ادعا میکنه که این خروجیها طبق قوانین حفاظت از دادههای اتحادیه اروپا غیرقانونی هستن. و در حالی که OpenAI یه سلب مسئولیت کوچیک تو پایین صفحه نشون میده که میگه “چتجیپیتی میتونه اشتباه کنه. اطلاعات مهم رو بررسی کنید”، Noyb میگه که این نمیتونه توسعهدهنده هوش مصنوعی رو از وظیفهش طبق GDPR برای تولید نکردن دروغهای فاحش درباره افراد در وهله اول مبرا کنه.
برای پاسخ به این شکایت با OpenAI تماس گرفته شده.
در حالی که این شکایت GDPR مربوط به یه فرد نامداره، Noyb به نمونههای دیگه از جعل اطلاعاتی که از نظر قانونی خطرناکن توسط چتجیپیتی اشاره میکنه – مثل سرگرد استرالیایی که گفت تو یه رسوایی رشوه و فساد دست داشته یا یه روزنامهنگار آلمانی که به دروغ به عنوان یه کودکآزار معرفی شد – و میگه واضحه که این یه مشکل منزوی برای این ابزار هوش مصنوعی نیست.
یه نکته مهم که باید بهش توجه کرد اینه که Noyb میگه بعد از یه آپدیت به مدل هوش مصنوعی زیربنایی چتجیپیتی، چتبات دیگه دروغهای خطرناک درباره هیالمار هولمن رو تولید نمیکنه – تغییری که اون رو به این ربط میده که این ابزار حالا وقتی ازش میپرسن کی هستن، تو اینترنت دنبال اطلاعات درباره افراد میگرده (در حالی که قبلاً، یه جای خالی تو مجموعه دادههاش میتونست اون رو تشویق کنه که چنین پاسخهای به شدت غلطی رو توهم بزنه).
تو آزمایشهای خودمون که از چتجیپیتی پرسیدیم “آروه هیالمار هولمن کیست؟” چتجیپیتی ابتدا با یه ترکیب نسبتاً عجیب جواب داد و یه سری عکس از افراد مختلف رو نشون داد که ظاهراً از سایتهایی مثل اینستاگرام، SoundCloud و Discogs گرفته شده بودن، در کنار متنی که ادعا میکرد “هیچ اطلاعاتی” درباره فردی با این نام “پیدا نکرده” (اسکرینشات ما رو در زیر ببینید). تلاش دوم یه پاسخی رو نشون داد که آروه هیالمار هولمن رو به عنوان “یه موسیقیدان و ترانهسرای نروژی” معرفی کرد که آلبومهاش شامل “Honky Tonk Inferno” میشه.
در حالی که به نظر میرسه تولید دروغهای خطرناک درباره هیالمار هولمن توسط چتجیپیتی متوقف شده، هم Noyb و هم هیالمار هولمن همچنان نگران هستن که اطلاعات نادرست و افتراآمیز درباره اون ممکنه تو مدل هوش مصنوعی حفظ شده باشه.
کلانتی ساردلی، یکی دیگه از وکلای حفاظت از داده تو Noyb، تو بیانیهای اشاره کرد: “اضافه کردن یه سلب مسئولیت که شما از قانون تبعیت نمیکنید، قانون رو از بین نمیبره.” اون اضافه کرد: “شرکتهای هوش مصنوعی هم نمیتونن فقط اطلاعات غلط رو از کاربرا “پنهان کنن” در حالی که اونا تو داخل همچنان اطلاعات غلط رو پردازش میکنن.”
اون اضافه کرد: “شرکتهای هوش مصنوعی باید دست از رفتار کردن طوری که انگار GDPR شامل حالشون نمیشه بردارن، در حالی که به وضوح اینطوره. اگه جلوی توهمات گرفته نشه، افراد به راحتی میتونن دچار آسیبهای اعتباری بشن.”
Noyb این شکایت رو علیه OpenAI به سازمان حفاظت از دادههای نروژ ارائه کرده – و امیدوار هست که سازمان نظارت تصمیم بگیره که صلاحیت بررسی رو داره، چون Noyb داره شکایت رو علیه واحد آمریکایی OpenAI هدف قرار میده و استدلال میکنه که دفتر ایرلند به تنهایی مسئول تصمیمات محصولی که روی اروپاییها تأثیر میذاره نیست.
با این حال، یه شکایت قبلی GDPR که توسط Noyb علیه OpenAI حمایت شده بود و تو آوریل 2024 تو اتریش ارائه شده بود، توسط سازمان نظارت به DPC ایرلند ارجاع داده شد، چون OpenAI قبلاً تو اون سال یه تغییری ایجاد کرده بود و بخش ایرلندی خودش رو به عنوان ارائهدهنده سرویس چتجیپیتی به کاربران منطقهای معرفی کرده بود.
اون شکایت الان کجاست؟ هنوز رو یه میز تو ایرلند نشسته.
ریستیرد بایرن، افسر ارشد ارتباطات DPC، وقتی ازش خواسته شد یه آپدیت ارائه بده، به TechCrunch گفت: “DPC پس از دریافت شکایت از سازمان نظارت اتریش در سپتامبر 2024، رسیدگی رسمی به شکایت رو شروع کرد و هنوز هم ادامه داره.”
اون هیچ اشارهای نکرد که انتظار میره تحقیقات DPC درباره توهمات چتجیپیتی کی به پایان برسه.
منبع: techcrunch