بریتانیا با معرفی یک نرمافزار جدید، به تقویت ایمنی مدلهای هوش مصنوعی پرداخت
مؤسسه ایمنی هوش مصنوعی بریتانیا، که به تازگی تأسیس شده است، یک نرمافزار جدید را معرفی کرده است. این نرمافزار با مجموعهای از ابزارهای مختلف طراحی شده است تا ایمنی هوش مصنوعی را تقویت کند. این ابزارها برای ارزیابی هوش مصنوعی و استفاده سازمانهای تحقیقاتی و دانشگاهها طراحی شدهاند. به گفتهٔ مؤسسه، این مجموعه ابزار […]
مؤسسه ایمنی هوش مصنوعی بریتانیا، که به تازگی تأسیس شده است، یک نرمافزار جدید را معرفی کرده است. این نرمافزار با مجموعهای از ابزارهای مختلف طراحی شده است تا ایمنی هوش مصنوعی را تقویت کند. این ابزارها برای ارزیابی هوش مصنوعی و استفاده سازمانهای تحقیقاتی و دانشگاهها طراحی شدهاند.
به گفتهٔ مؤسسه، این مجموعه ابزار با نام “Inspect”، تحت مجوز دانشگاه MIT عرضه شده و به صورت متنباز در دسترس است. هدف این ابزارها، ارزیابی قابلیتهای خاص مدلهای هوش مصنوعی مانند دادههای اصلی و توانایی استدلال آنهاست.
یک نرمافزار جدید برای ارزیابی ایمنی مدلهای هوش مصنوعی توسط مؤسسه ایمنی بریتانیا معرفی شده است. این پلتفرم، با حمایت دولتی، برای استفاده گستردهتر در دسترس قرار گرفته است.
بهطور کلی، ارزیابی مدلهای هوش مصنوعی چالش برانگیز است؛ زیرا اطلاعات مربوط به دادههای آموزشی و سایر جزئیات مهم مدلها توسط شرکتهای توسعهدهنده مخفی نگه داشته میشود. از این رو، نرمافزار Inspect با چالشهایی روبهرو خواهد بود، اما سعی در ارزیابی مدلها با استفاده از تکنیکهای جدید دارد.
این نرمافزار از سه جزء اصلی تشکیل شده است: دادهها، حلکنندهها و امتیازدهندهها. بخش دادهها نمونههایی را برای آزمونهای ارزیابی ارائه میدهد، سپس حلکنندهها این آزمونها را انجام میدهند و در نهایت امتیازدهندگان عملکرد حلکنندهها را ارزیابی میکنند.
در ماه فروردین، آمریکا و بریتانیا توافقنامهای برای آزمایش ایمنی هوش مصنوعی پیشرفته را امضا کردند و قصد دارند روشها و ابزارهایی برای ارزیابی ایمنی مدلهای هوش مصنوعی ایجاد کنند. به عنوان بخشی از این همکاری، ایالات متحده نیز قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راهاندازی کند و مسئولیت ارزیابی خطرات ناشی از هوش مصنوعی را بهعهده بگیرد.
هیچ دیدگاهی درج نشده - اولین نفر باشید