پژوهشگر ایمنی آنتروپیک با انتشار نامهای استعفا داد: جهان در خطر است
مرینانک شارما گفته میخواهد تحصیل و نوشتن شعر را دنبال کند و به بریتانیا برگردد تا نامرئی شود.
«مرینانک شارما»، پژوهشگر ایمنی هوش مصنوعی شرکت آنتروپیک، از سمت خود استعفا داد و در نامهای هشدار داد که «جهان در خطر است». او در این نامه که روی شبکه اجتماعی ایکس منتشر شد، نگرانی خود را درباره هوش مصنوعی، سلاحهای زیستی و وضعیت کلی جهان اعلام کرد و گفت قصد دارد از صنعت فناوری فاصله بگیرد.
به گزارش بی بی سی، شارما در توییت خداحافظی خود گفت که دوران حضورش در آنتروپیک را دوست داشته اما «زمان رفتن فرارسیده است». او توضیح داد میخواهد تحصیل و نوشتن شعر را دنبال کند و به بریتانیا برگردد تا نامرئی شود. این تصمیم درحالی مطرح شد که همزمان پژوهشگر دیگری از شرکت OpenAI هم بهدلیل نگرانی از سیاستهای تبلیغاتی این شرکت، استعفا داده است.
پژوهشگر ارشد آنتروپیک درباره خطر جهانی هوش مصنوعی هشدار داد
آنتروپیک که بهخاطر چتبات Claude شناخته میشود، خود را شرکتی با رویکرد ایمنیمحور در پژوهش هوش مصنوعی معرفی میکند. این شرکت در سال ۲۰۲۱ میلادی توسط گروهی از کارکنان اولیه OpenAI تأسیس شد. آنتروپیک همزمان روی توسعه محصولات تجاری و تقویت ایمنی سامانههای هوش مصنوعی کار میکند.

شارما در آنتروپیک تیمی را هدایت میکرد که روی سازوکارهای ایمنی هوش مصنوعی تحقیق میکردند. او در نامه استعفا نوشت بخشی از دستاوردهایش شامل بررسی دلیل «چاپلوسی» سامانههای مولد متن نسبت به کاربران، مقابله با خطرات زیستـتروریسم با کمک هوش مصنوعی و پژوهش درباره این موضوع بوده که دستیارهای هوش مصنوعی چگونه میتوانند ما را کمتر انسان کنند.
او در متن خود تأکید کرد خطر تنها از سوی هوش مصنوعی یا سلاحهای زیستی نمیآید و مجموعهای از بحرانهای بههمپیوسته همزمان درحال شکلگیری است. شارما نوشت بارها دیده که «چقدر سخت است ارزشهای خود را واقعاً برعمل حاکم کنیم» و اشاره کرد آنتروپیک هم بهطور مداوم زیر فشار است تا که آنچه مهمتر است را کنار بگذارد.
آنتروپیک خود را «شرکت با منفعت عمومی» معرفی میکند که هدف آن تأمین منافع هوش مصنوعی و کاهش خطرات آن است. تمرکز اصلی این شرکت روی خطرات سامانههای پیشرفته موسوم به «مرزی» قرار دارد؛ سامانههایی که ممکن است با ارزشهای انسانی ناهماهنگ شوند.






































دیدگاهتان را بنویسید