به گفته یک شرکت حامی مؤسسه ایمنی هوش مصنوعی دولت، بریتانیا باید به جای تلاش برای انجام تمام بررسی‌ها بر روی تعیین استانداردهای جهانی برای آزمایش هوش مصنوعی تمرکز کند.

مارک وارنر، مدیر اجرایی دانشکده هوش مصنوعی، گفت: مؤسسه تازه تأسیس می‌تواند به دلیل کار پیشرو در جهان در زمینه امنیت هوش مصنوعی، «درگیر» بررسی طیف وسیعی از مدل‌های هوش مصنوعی – فناوری، چت‌بات‌ها – باشد. بر اساس.

ریشی سوناک سال گذشته راه اندازی موسسه ایمنی هوش مصنوعی (AISI) را پیش از اجلاس جهانی ایمنی هوش مصنوعی اعلام کرد و تعهدات شرکت های فناوری بزرگ را برای همکاری با اتحادیه اروپا و 10 کشور از جمله بریتانیا، ایالات متحده، فرانسه و ژاپن تضمین کرد. برای آزمایش مدل های پیشرفته هوش مصنوعی قبل و بعد از استقرار آنها.

بریتانیا به دلیل کار پیشرفته خود در زمینه امنیت هوش مصنوعی که با تأسیس مؤسسه برجسته شده است، در این توافقنامه برجسته است.

وارنر که شرکت مستقر در لندن او با موسسه بریتانیایی قراردادهایی دارد که از جمله به آزمایش مدل‌های هوش مصنوعی کمک می‌کند تا ببیند آیا می‌توان آن‌ها را مجبور کرد که خط‌مشی‌های امنیتی خود را نقض کنند، گفت: این موسسه باید یک رهبر جهانی در ایجاد استانداردهای تست باشد. .

او گفت: “من فکر می کنم مهم است که استانداردهایی را برای کل جهان تعیین کند نه اینکه سعی کنید همه چیز را خودتان انجام دهید.”

وارنر، که شرکت او همچنین برای NHS در مورد کووید و وزارت کشور در زمینه مقابله با افراط گرایی کار می کند، گفت که این موسسه یک “شروع واقعاً عالی” داشته است و “فکر نمی کنم هرگز چیزی در دولت به این سرعت ندیده باشم.” “

با این حال، او افزود که “تکنولوژی نیز به سرعت در حال پیشرفت است.” او گفت که این موسسه باید استانداردهایی را معرفی کند که سایر دولت ها و شرکت ها می توانند از آنها پیروی کنند، مانند “تیمینگ قرمز” که در آن متخصصان به جای انجام همه کارها، استفاده نادرست از یک مدل هوش مصنوعی را شبیه سازی می کنند.

وارنر گفت که دولت ممکن است خود را در موقعیتی بیابد که در آن “همه چیز در تیم قرمز” باشد و ممکن است “در جایی که آنها پهنای باند کافی برای دسترسی به همه مدل ها را نداشته باشند” عقب ماندگی ایجاد شود.

وی با اشاره به پتانسیل این موسسه به عنوان یک تنظیم کننده استاندارد بین المللی، گفت: “آنها می توانند استانداردهای واقعا درخشانی را تعیین کنند تا سایر دولت ها، سایر شرکت ها… بتوانند در آن استانداردها مشارکت کنند.” چگونه این چیزها می توانند ایمن بمانند.»

وارنر درست قبل از انتشار به روز رسانی برنامه آزمایشی خود توسط AISI در هفته گذشته، با گاردین صحبت کرد و اذعان کرد که این شرکت ظرفیت آزمایش “همه مدل های منتشر شده” را ندارد و فقط بر روی پیشرفته ترین سیستم ها تمرکز خواهد کرد.

از تبلیغات خبرنامه بگذرید

هفته گذشته، فایننشال تایمز گزارش داد که شرکت‌های بزرگ هوش مصنوعی دولت بریتانیا را تحت فشار قرار می‌دهند تا آزمایش‌های امنیتی سیستم‌های هوش مصنوعی را تسریع بخشد. امضاکنندگان توافقنامه آزمایش داوطلبانه شامل گوگل، توسعه دهنده ChatGPT OpenAI، مایکروسافت و متای مارک زاکربرگ هستند.

ایالات متحده همچنین یک موسسه امنیتی هوش مصنوعی را اعلام کرده است که در برنامه آزمایشی اعلام شده در اجلاس بلچلی پارک شرکت خواهد کرد. هفته گذشته، دولت بایدن کنسرسیومی را برای کمک به کاخ سفید برای دستیابی به اهداف تعیین شده در فرمان اجرایی اکتبر خود در مورد امنیت هوش مصنوعی، که شامل تدوین دستورالعمل‌هایی برای واترمارک کردن محتوای تولید شده توسط هوش مصنوعی شنیده می‌شود، اعلام کرد. اعضای این کنسرسیوم که در مؤسسه ایالات متحده مستقر خواهند شد شامل متا، گوگل، اپل و OpenAI هستند.

وزارت علوم، نوآوری و فناوری بریتانیا گفت که دولت‌های سراسر جهان باید «نقش کلیدی» را در آزمایش مدل‌های هوش مصنوعی ایفا کنند.

یکی از سخنگویان گفت: «بریتانیا این تلاش‌ها را از طریق اولین مؤسسه ایمنی هوش مصنوعی در جهان، انجام ارزیابی‌ها، تحقیقات و اشتراک‌گذاری اطلاعات و بهبود درک جمعی از ایمنی هوش مصنوعی در سراسر جهان به جلو می‌برد». “کار موسسه برای کمک به اطلاع رسانی به سیاستگذاران در سراسر جهان در مورد ایمنی هوش مصنوعی ادامه خواهد داشت.”