رگولاتور ایتالیا: نقض OpenAI در حریم خصوصی اروپا با چتبات ChatGPT
سازمان حفاظت اطلاعات ایتالیا اعلام کرده که OpenAI با چتبات هوش مصنوعی ChatGPT خود، قوانین حفاظت از دادهها را نقض میکند. این سازمان در فروردین ماه، به دلیل نقض قوانین حریم خصوصی اتحادیه اروپا، دسترسی به ChatGPT را بهطور موقت ممنوع کرده بود و اکنون اعلام کرده که تحقیقات آن نشان میدهد یک یا چند […]
سازمان حفاظت اطلاعات ایتالیا اعلام کرده که OpenAI با چتبات هوش مصنوعی ChatGPT خود، قوانین حفاظت از دادهها را نقض میکند. این سازمان در فروردین ماه، به دلیل نقض قوانین حریم خصوصی اتحادیه اروپا، دسترسی به ChatGPT را بهطور موقت ممنوع کرده بود و اکنون اعلام کرده که تحقیقات آن نشان میدهد یک یا چند مورد نقض احتمالی حریم خصوصی دادهها در ابزارهای OpenAI وجود دارد.
گزارش TechCrunch نشان میدهد که مقام حفاظت از دادههای ایتالیا پس از چند ماه بررسی چتبات هوش مصنوعی ChatGPT اعلام کرده است که شرکت OpenAI ممکن است قوانین حریم خصوصی اتحادیه اروپا را نقض کرده باشد. به OpenAI 30 روز زمان داده شده تا به این اتهامات پاسخ دهد. ایتالیا به عنوان اولین کشور اروپای غربی است که چتبات ChatGPT را محدود کرده و توجه سریع به توسعه این هوش مصنوعی باعث جلب توجه قانونگذاران و رگولاتورهای مختلف شده است.
به گزارشات، رگولاتور حفاظت اطلاعات ایتالیا اظهار کرده است که OpenAI ممکن است مقررات حریم خصوصی اتحادیه اروپا را نقض کرده باشد. مطابق با قوانین حفاظت از دادهها در اتحادیه اروپا (GDPR)، هر شرکتی که این قوانین را نقض کند ممکن است تا 4 درصد از درآمد جهانی خود را جریمه بخورد.
در ماه فروردین، رگولاتوری ایتالیا ادعا کرده بود که OpenAI از دادههای شخصی برای آموزش الگوریتمهای مدل ChatGPT استفاده میکند و این چتبات اطلاعات نادرست زیادی دارد که برای افراد زیرسن نامناسب است. در حالی که OpenAI موفق به دوباره راهاندازی ChatGPT در ایتالیا شد، اما مقامات هنوز اعلام نکردهاند که کدام موارد از این ادعاها تأیید شدهاند. انتقال و پردازش دادههای شخصی برای آموزش مدلهای هوش مصنوعی، یک اتهام جدی محسوب میشود.
هیچ دیدگاهی درج نشده - اولین نفر باشید