قول شفافیت بیشتر درباره محتوای مضر هوش مصنوعی از سوی «اوپن‌ای‌آی»

این هاب همچنین اگر مدلی محتوای مضر تولید می‌کند، نشان می‌دهد که چگونه طبق دستور عمل و سعی می‌کند آن را اصلاح کند. این شرکت فناوری ادعا می‌کند که این صفحه جدید شفافیت بیشتری را از جانب «اوپن‌ای‌آی» فراهم می‌کند؛ شرکتی که همین الان هم با پرونده‌های قضایی متعددی مبنی بر استفاده غیرقانونی از مطالب دارای حق نشر برای آموزش مدل‌های هوش مصنوعی خود مواجه است. این «مرکز ارزیابی ایمنی» برای گسترش نظارت «اوپن‌ای‌آی» راه‌اندازی شده است که به‌طور مداوم نیز به‌روزرسانی می‌شود. 

شرکت «اوپن‌ای‌آی» در اعلامیه خود می‌گوید: همان‌طور که علم ارزیابی هوش مصنوعی در حال تکامل است، هدف ما این است که پیشرفت خود را در توسعه راه‌های مقیاس‌پذیرتر برای اندازه‌گیری قابلیت و ایمنی مدل‌ها به اشتراک بگذاریم. با به اشتراک گذاشتن زیرمجموعه‌ای از نتایج ارزیابی ایمنی خود در اینجا، امیدواریم این امر نه تنها درک عملکرد ایمنی سیستم‌های «اوپن‌ای‌آی» را در طول زمان آسان‌تر کند، بلکه از تلاش‌های جامعه برای افزایش شفافیت در سراسر زمینه نیز حمایت کند.

این شرکت می‌افزاید که تلاش می‌کند تا ارتباطات فعال‌تری در این زمینه داشته باشد. علاقه‌مندان می‌توانند به هر یک از بخش‌های این هاب نگاه کنند و اطلاعات مربوط به مدل‌های مربوطه مانند «GPT-۴.۱» تا ۴.۵ را مشاهده کنند. «اوپن‌ای‌آی» خاطرنشان می‌کند که اطلاعات ارائه شده در این مرکز فقط یک «عکس فوری» است و افراد علاقه‌مند باید به ارزیابی‌ها و سایر اطلاعات برای جزئیات بیشتر نگاه کنند. یکی از نکات مهم کل «مرکز ارزیابی ایمنی» این است که «اوپن‌ای‌آی» نهادی است که این آزمایش‌ها را انجام می‌دهد و انتخاب می‌کند که چه اطلاعاتی را به صورت عمومی به اشتراک بگذارد. در نتیجه، هیچ راهی برای تضمین اینکه این شرکت تمام مسائل یا نگرانی‌ها را با مردم در میان بگذارد، وجود ندارد.