OpenAI سیاستهای خود را تغییر داد؛ محدودیت محتوای بزرگسالانه در ChatGPT برداشته میشود
تغییر در سیاستهای OpenAI؛ محتوای بزرگسالانه حالا در ChatGPT مجاز است شرکت OpenAI، خالق چتبات محبوب ChatGPT، در یک چرخش سیاستی بزرگ اعلام کرده است که به زودی به کاربرانی که سن آنها تأیید شده باشد، اجازه میدهد تا با این هوش مصنوعی، مکالماتی با محتوای بزرگسالانه داشته باشند. این تصمیم درحالی گرفته شده که […]
تغییر در سیاستهای OpenAI؛ محتوای بزرگسالانه حالا در ChatGPT مجاز است
شرکت OpenAI، خالق چتبات محبوب ChatGPT، در یک چرخش سیاستی بزرگ اعلام کرده است که به زودی به کاربرانی که سن آنها تأیید شده باشد، اجازه میدهد تا با این هوش مصنوعی، مکالماتی با محتوای بزرگسالانه داشته باشند. این تصمیم درحالی گرفته شده که این شرکت همزمان برای مقابله با خطرات فزاینده هوش مصنوعی، یک «شورای تخصصی سلامت و هوش مصنوعی» نیز تشکیل داده است.
دلیل تغییر سیاست از زبان سم آلتمن
تا پیش از این، OpenAI محدودیتهای بسیار سختگیرانهای را برای جلوگیری از تولید محتوای نامناسب، به ویژه در حوزههای سلامت روان و محتوای جنسی، اعمال میکرد. اما «سم آلتمن»، مدیرعامل OpenAI، دلیل این تغییر رویکرد را اینگونه توضیح میدهد:
«ما ChatGPT را بسیار محدود کردیم تا در مورد مسائل مربوط به سلامت روان محتاط باشیم. اما متوجه شدیم که این کار لذت استفاده از چتبات یا کاربردهای آن را برای بسیاری از کاربرانی که مشکل سلامت روان نداشتند، کاهش داده است.»

آلتمن تأیید کرد که از ماه دسامبر (آذر ماه) و با راهاندازی کامل سیستم بررسی سن کاربران، این شرکت به عنوان بخشی از اصل «با کاربران بزرگسال مانند بزرگسالان رفتار کنید»، اجازه بهرهمندی از محتواهای بیشتری را خواهد داد.
رقابت و فشار کاربران، محرک تغییرات
این تغییر جهت ناگهانی در سیاستهای OpenAI را میتوان پاسخی به دو فشار عمده در بازار هوش مصنوعی دانست:
شکایت کاربران: بسیاری از کاربران از محدودیتهای بیشازحد و سانسور شدید در چتبات شاکی بودند.
رقابت شدید: شرکتهایی مانند Character.AI و xAI با ارائه همدمهای هوش مصنوعی جنجالیتر و کممحدودیتتر، موفق به جذب میلیونها کاربر شدهاند.
شورای تخصصی سلامت و هوش مصنوعی: ابهامها و انتقادها
در حالی که سم آلتمن مدعی است این تغییر سیاست به دلیل کاهش موفقیتآمیز «مسائل جدی سلامت روان» توسط ابزارهای جدید شرکت ممکن شده است، شواهد و اقدامات اخیر OpenAI باعث ایجاد تردیدهایی شده است.
پس از گزارشهای نگرانکننده متعددی از جمله شکایت والدینی که ادعا میکردند این چتبات فرزندشان را به خودکشی تشویق کرده است، OpenAI از تشکیل یک «شورای تخصصی سلامت و هوش مصنوعی» خبر داد. این شورا متشکل از هشت محقق و متخصص است که قرار است به شرکت مشاوره دهند.
دو نگرانی عمده منتقدان نسبت به این شورا عبارتند از:
عدم قدرت اجرایی: خود OpenAI صراحتاً اعلام کرده است که این شورا هیچ قدرت اجرایی یا وتوی واقعی ندارد و تنها نقش مشورتی ایفا میکند. این رویکرد پیش از این در شرکتهای دیگر مانند متا نیز دیده شده و مورد انتقاد قرار گرفته است.
خلاء تخصص حیاتی: نکته نگرانکنندهتر آن است که در میان هشت متخصص این شورا، هیچ کارشناس پیشگیری از خودکشی حضور ندارد. این در حالی است که بسیاری از متخصصان پیش از این، خواستار اعمال اقدامات محافظتی بیشتر برای کاربران درگیر با افکار خودکشی شده بودند.
این تصمیم جدید، تعادلی ظریف بین آزادی محتوا برای بزرگسالان و نیاز حیاتی به حفظ ایمنی کاربران، بهویژه در مسائل حساس سلامت روان، ایجاد کرده که نیازمند نظارت جدیتر است.
هیچ دیدگاهی درج نشده - اولین نفر باشید