اداره ملی مخابرات و اطلاعات (NTIA)، بخش و، بازرگ، ایالات متحده، تماس گرفت برای تفسیر عمومی در مورد استراتژیهای تشویق پاسخگویی در سیستمهای هوش مصنوعی قابل اعتماد (AI).
هدف درخواست بازخورد سهامداران برای تدوین پیشنهادهایی برای گزارش آتی در مورد چارچوب های ضمانت هوش مصنوعی و پاسخگویی بود. این پیشنهادات ممکن است مقررات فدرال و غیر،تی آینده را هدایت کند.
ترویج هوش مصنوعی قابل اعتماد که از حقوق بشر و اصول دموکراتیک حمایت می کند، تمرکز اصلی فدرال طبق درخواست NTIA بود. با این وجود، در حصول اطمینان از مسئولیت پذیری سیستم های هوش مصنوعی و رعایت قو،ن قابل اعتماد هوش مصنوعی در مورد انصاف، ایمنی، حریم خصوصی و شفافیت، شکاف هایی وجود داشت.
مک،سم های پاسخگویی مانند ممیزی ها، ارزیابی تاثیرات و گواهینامه ها می توانند این اطمینان را ایجاد کنند که سیستم های هوش مصنوعی از معیارهای قابل اعتماد پیروی می کنند. اما، NTIA مشاهده کرد که اجرای پاسخگویی موثر همچنان چالش ها و پیچیدگی هایی را به همراه دارد.
NTIA ملاحظات مختلفی را در مورد تعادل بین اه، قابل اعتماد هوش مصنوعی، موانع اجرای مسئولیت، زنجیره های تامین پیچیده هوش مصنوعی و زنجیره های ارزش، و مشکلات در استانداردسازی اندازه گیری ها مورد بحث قرار داد.
بیش از 1450 نظر در مورد مسئولیت پذیری هوش مصنوعی
نظرات تا 12 ژوئن برای کمک به شکل دادن به گزارش آتی NTIA و هدایت تحولات سیاست بالقوه پیرامون پاسخگویی هوش مصنوعی پذیرفته شد.
تعداد نظرات از 1450 فراتر رفت.
نظرات، که می توانند با استفاده از کلمات کلیدی جستجو شوند، گهگاه شامل پیوندهایی به مقالات، نامه ها، اسناد و دعاوی در مورد تأثیر بالقوه هوش مصنوعی می شوند.
شرکت های فنی به NTIA پاسخ می دهند
نظرات شامل بازخورد شرکت های فناوری زیر بود که در تلاش برای توسعه محصولات هوش مصنوعی برای محل کار هستند.
نامه OpenAI به NTIA
در حرف از OpenAI، از چارچوب بندی موضوع توسط NTIA به ،وان یک “ا،یستم” اقدامات لازم برای پاسخگویی هوش مصنوعی برای تضمین هوش مصنوعی قابل اعتماد استقبال کرد.
محققان OpenAI معتقد بودند که یک ا،یستم پاسخگویی هوش مصنوعی بالغ از ،اصر پاسخگویی عمومی تشکیل شده است که به طور گسترده در دامنه ها و ،اصر عمودی سفارشی شده برای زمینه ها و برنامه های خاص اعمال می شود.
OpenAI بر توسعه مدلهای پایه تمرکز کرده است – مدلهای هوش مصنوعی با کاربرد گسترده که از مجموعه دادههای گسترده یاد میگیرند.
نیاز به اتخاذ رویکردی مبتنی بر ایمنی برای این مدلها، صرف نظر از حوزههای خاصی که ممکن است در آنها به کار گرفته شوند را میداند.
OpenAI چندین رویکرد فعلی برای پاسخگویی هوش مصنوعی را شرح داد. «کارتهای سیستم» را منتشر میکند تا شفافیت در مورد مسائل مهم عملکرد و خطرات مدلهای جدید ارائه دهد.
برای بررسی قابلیتها و حالتهای ش،ت، آزمایشهای کیفی «تیمینگ قرمز» را انجام میدهد. ارزیابی های کمی را برای قابلیت ها و ریسک های مختلف انجام می دهد. و دارای سیاستهای استفاده واضحی است که استفادههای مضر را به همراه مک،سمهای اجرایی منع میکند.
OpenAI چندین چالش قابل حل حل نشده را تایید کرد، از جمله ارزیابی قابلیت های بالقوه خطرناک در حالی که قابلیت های مدل همچنان در حال تکامل هستند.
پرسشهای باز پیرامون ارزیابیهای مستقل مدلهای خود توسط اشخاص ثالث را مورد بحث قرار داد. و پیشنهاد کرد که ا،امات ثبت و مجوز ممکن است برای مدل های بنیادی آینده با خطرات قابل توجه ضروری باشد.
در حالی که شیوههای فعلی OpenAI بر شفافیت، آزمایش و سیاستها تمرکز دارد، به نظر میرسد که این شرکت آماده همکاری با سیاستگذاران برای توسعه اقدامات پاسخگویی قویتر است. پیشنهاد میکند که چارچوبهای نظارتی من، ممکن است برای مدلهای هوش مصنوعی شایسته لازم باشد.
به طور کلی، پاسخ OpenAI منع، کننده این باور بود که ،یبی از تلاشهای خودتنظیمی و سیاستهای ،ت نقشهای حیاتی را در توسعه یک ا،یستم پاسخگویی هوش مصنوعی موثر ایفا میکند.
نامه مایکروسافت به NTIA
در آن واکنشمایکروسافت اظهار داشت که مسئولیت پذیری باید یک ،صر اساسی از چارچوب ها برای مق، با خطرات ناشی از هوش مصنوعی و در عین حال به حدا،ر رساندن مزایای آن باشد. شرکتهایی که در حال توسعه و استفاده از هوش مصنوعی هستند، باید مسئول تأثیر سیستمهای خود باشند و نهادهای نظارتی برای اعمال نظارت من، به اختیار، دانش و ابزار نیاز دارند.
مایکروسافت درس هایی از برنامه هوش مصنوعی مسئولیت پذیر خود را بیان کرد که هدف آن اطمینان از اینکه ماشین ها تحت کنترل انسان باقی می مانند. مسئولیت پذیری در ساختار حاکمیتی و استاندارد هوش مصنوعی مسئول گنجانده شده است و شامل موارد زیر است:
- انجام ارزیابی اثرات برای شناسایی و رسیدگی به آسیب های احتمالی.
- نظارت اضافی برای سیستم های پرخطر.
- اسنادی برای اطمینان از من، بودن سیستم ها برای هدف.
- شیوه های حاکمیت و مدیریت داده ها.
- پیشبرد هدایت و کنترل انسان.
- مایکروسافت توضیح داد که چگونه تیم قرمز را برای کشف آسیبها و ش،تهای احتمالی انجام میدهد و یادداشتهای شفافسازی را برای سرویسهای هوش مصنوعی خود منتشر میکند. موتور جستجوی جدید بینگ مایکروسافت از این رویکرد هوش مصنوعی مسئول استفاده می کند.
مایکروسافت شش توصیه برای پیشبرد پاسخگویی ارائه کرد:
- بر اساس چارچوب مدیریت ریسک هوش مصنوعی NIST برای تسریع استفاده از مک،سمهای مسئولیتپذیری مانند ارزیابی تاثیر و تیم قرمز، بهویژه برای سیستمهای هوش مصنوعی پرخطر.
- یک چارچوب قانونی و نظارتی بر اساس پشته فناوری هوش مصنوعی، از جمله ا،امات مجوز برای مدل های بنیاد و ارائه دهندگان زیرساخت ایجاد کنید.
- شفافیت را به ،وان عاملی برای پاسخگویی، مانند ثبت سیستمهای هوش مصنوعی پرخطر، ارتقا دهید.
- سرمایهگذاری در ظرفیتسازی قانونگذاران و قانونگذاران برای همگام شدن با پیشرفتهای هوش مصنوعی.
- برای بهبود معیارهای ارزیابی هوش مصنوعی، قابلیت توضیح، تعامل انسان و رایانه و ایمنی، در تحقیقات سرمایه گذاری کنید.
- توسعه و هماهنگی با استانداردهای بین المللی برای حمایت از یک ا،یستم تضمینی، از جمله استانداردهای ISO AI و استانداردهای منشأ محتوا.
- به طور کلی، مایکروسافت آماده همکاری با سهامداران برای توسعه و پیاده سازی رویکردهای موثر برای پاسخگویی هوش مصنوعی است.
به طور کلی، به نظر می رسید که مایکروسافت آماده همکاری با سهامداران برای توسعه و پیاده سازی رویکردهای موثر برای پاسخگویی هوش مصنوعی است.
نامه گوگل به NTIA
گوگل واکنش از درخواست NTIA برای اظهار نظر در مورد سیاست های پاسخگویی هوش مصنوعی استقبال کرد. این سازمان نیاز به خودتنظیمی و حکمر، را برای دستیابی به هوش مصنوعی قابل اعتماد تشخیص داد.
گوگل کار خود را در مورد ایمنی و اخلاق هوش مصنوعی، مانند مجموعه ای از اصول هوش مصنوعی متمرکز بر عدالت، ایمنی، حریم خصوصی و شفافیت برجسته کرد. گوگل همچنین شیوههای هوش مصنوعی مسئولیتپذیر را در داخل پیادهسازی کرد، از جمله انجام ارزیابیهای ریسک و ارزیابیهای عادلانه.
Google استفاده از چارچوبهای نظارتی موجود را در صورت امکان و مداخلات مبتنی بر ریسک برای هوش مصنوعی پرخطر تأیید کرد. استفاده از یک رویکرد مش، و مبتنی بر اجماع برای توسعه استانداردهای فنی را تشویق کرد.
گوگل موافقت کرد که مک،سمهای پاسخگویی مانند ممیزی، ارزیابی و گواهینامهها میتوانند از سیستمهای هوش مصنوعی قابل اعتماد اطمینان حاصل کنند. اما اشاره کرد که این مک،سمها در پیادهسازی با چالشهایی مواجه هستند، از جمله ارزیابی بسیاری از جنبههایی که بر خطرات سیستم هوش مصنوعی تأثیر میگذارند.
گوگل توصیه کرد که مک،سمهای مسئولیتپذیری را بر روی عوامل خطر کلیدی متمرکز کند و از رویکردهایی استفاده کند که محتملترین راههایی را که سیستمهای هوش مصنوعی میتوانند بر جامعه تأثیر بگذارند، مورد هدف قرار دهند.
گوگل یک مدل “hub-and-spoke” از مقررات AI را توصیه کرد، با تنظیمکنندههای بخشی که با راهنمایی یک آژانس مرکزی مانند NIST بر اجرای هوش مصنوعی نظارت میکنند. این سازمان از شفافسازی نحوه اعمال قو،ن موجود برای هوش مصنوعی و تشویق اقدامات مسئولیتپذیری متن، مبتنی بر ریسک برای هوش مصنوعی پرخطر حمایت میکند.
مانند دیگران، گوگل معتقد بود که برای پیشبرد پاسخگویی هوش مصنوعی به ،یبی از خودتنظیمی، استانداردهای فنی و سیاستهای محدود و مبتنی بر ریسک ،ت نیاز دارد.
نامه انسان دوستانه به NTIA
آنتروپیک واکنش این باور را توصیف کرد که یک ا،یستم پاسخگویی قوی هوش مصنوعی نیازمند مک،سمهایی است که برای مدلهای هوش مصنوعی طراحی شده است. چندین چالش از جمله دشواری ارزیابی دقیق سیستمهای هوش مصنوعی و دسترسی به اطلاعات حساس مورد نیاز برای ممیزیها بدون به خطر انداختن امنیت را شناسایی کرد.
بودجه مورد حمایت Anthropic برای موارد زیر:
- ارزیابی های مدل: ارزیابی های فعلی یک تکه تکه ناقص است و نیاز به تخصص تخصصی دارد. این استاندارد ارزیابی قابلیت ها را با تمرکز بر خطراتی مانند فریب و استقلال توصیه می کند.
- تحقیق تفسیرپذیری: کمکهای مالی و بودجه برای تحقیقات تفسیرپذیری میتواند مدلهای شفافتر و قابل فهمتری را فراهم کند. با این حال، مقرراتی که نیاز به تفسیرپذیری دارند در حال حاضر غیر قابل اجرا هستند.
- پیشثبتنام دورههای آموزشی بزرگ هوش مصنوعی: توسعهدهندگان هوش مصنوعی باید دورههای آموزشی بزرگ را به قانونگذاران گزارش دهند تا آنها را از خطرات جدید تحت حفاظتهای محرمانه من، مطلع کنند.
- تیم قرمز خارجی: آزمایش اجباری خصمانه سیستمهای هوش مصنوعی قبل از انتشار، از طریق یک سازمان متمرکز مانند NIST یا از طریق دسترسی محقق. با این حال، استعدادهای تیم قرمز در حال حاضر در آزمایشگاه های خصوصی هوش مصنوعی ،ن هستند.
- حسابرسان با تخصص فنی، هوشیاری امنیتی و انعطاف پذیری: حسابرسان به تجربه عمیق یادگیری ماشینی در حین جلوگیری از نشت یا هک شدن نیاز دارند، اما باید در چارچوب محدودیت هایی عمل کنند که رقابت پذیری را ارتقا می دهد.
- Anthropic اقدامات پاسخگویی محدوده را بر اساس قابلیت های یک مدل و خطرات نشان داده شده، که از طریق ارزیابی قابلیت های هدفمند ارزیابی می شود، توصیه می کند. این سازمان پیشنهاد کرد که چارچوب های مالکیت IP برای هوش مصنوعی روشن شود تا مجوزهای منصفانه و ارائه راهنمایی در مورد مسائل ضد انحصار فراهم شود تا امکان همکاری های ایمنی فراهم شود.
- به طور کلی، آنتروپیک بر مشکلات ارزیابی دقیق و دسترسی به اطلاعات مربوط به سیستمهای هوش مصنوعی پیشرفته به دلیل ماهیت حساس آنها تأکید کرد. این استدلال میکند که ارزیابی قابلیتهای تامین مالی، تحقیقات تفسیرپذیری، و دسترسی به منابع مح،اتی برای یک ا،یستم پاسخگویی موثر هوش مصنوعی که به نفع جامعه است، حیاتی هستند.
بعد چه انتظاری داشته باشیم
پاسخها به درخواست NTIA برای اظهار نظر نشان میدهد که در حالی که شرکتهای هوش مصنوعی اهمیت پاسخگویی را تشخیص میدهند، هنوز سوالات و چالشهایی در مورد پیادهسازی و مقیاسبندی موثر مک،سمهای پاسخگویی وجود دارد.
آنها همچنین نشان میدهند که هم تلاشهای خودتنظیمی شرکتها و هم سیاستهای ،ت در توسعه یک ا،یستم پاسخگویی هوش مصنوعی قوی نقش دارند.
در ادامه، انتظار میرود که گزارش NTIA توصیههایی را برای پیشبرد ا،یستم پاسخگویی هوش مصنوعی با استفاده از تلاشهای خودتنظیمی، استانداردهای فنی و سیاستهای ،تی موجود، ارائه دهد. ورودی ذینفعان از طریق فرآیند نظرات احتمالاً به شکل دادن به این توصیهها کمک خواهد کرد.
با این حال، اجرای توصیهها در تغییر سیاستها و شیوههای صنعتی که میتواند نحوه توسعه، استقرار و نظارت هوش مصنوعی را تغییر دهد، نیازمند هماهنگی بین سازمانهای ،تی، شرکتهای فناوری، محققان و سایر ذینفعان است.
مسیر مسئولیتپذیری هوش مصنوعی طول، مدت و دشوار است. اما این گام های اولیه نشان می دهد که حرکتی برای دستیابی به آن هدف وجود دارد.
تصویر ویژه: EQRoy/Shutterstock
منبع: https://www.searchenginejournal.com/ntia-ai-accountability/489587/