چهارشنبه 11 مهر 1403 - 16:01

کد خبر 500553

چهارشنبه 09 خرداد 1403 - 18:34:36


مدیر سابق ایمنی هوش مصنوعی OpenAI به شرکت رقیب پیوست


دیجیاتو/ علت اصلی استعفای مدیر سابق ایمنی OpenAI و پیوستن او به آنتروپیک، ظاهراً انحلال گروه ایمنی این شرکت بوده است.

چند روز قبل «یان لیکه» (Jan Leike) یکی از محققان ارشد ایمنی OpenAI از این شرکت استعفا کرد و اکنون به استارتاپ رقیب یعنی آنتروپیک پیوسته است. پیش از استعفای یان لیکه، OpenAI گروه «Superalignment» را که هدف آن بررسی خطرات هوش مصنوعی بود، منحل کرد. یان لیکه نیز مدیریت این تیم را برعهده داشت.

یان لیکه در پستی در ایکس خبر پیوستن خود به رقیب OpenAI یعنی آنتروپیک را اعلام کرد. عمده علت استعفای او، ظاهراً انحلال گروه Superalignment بوده است. این گروه که در سال 2023 تشکیل شد، به خطرات بلندمدت هوش مصنوعی می‌پرداخت. چند روز قبل از استعفای یان لیکه، «ایلیا سوتسکیور»، هم‌بنیان‌گذار OpenAI نیز از این شرکت جدا شد.

به‌طور کلی آنتروپیک خود را نقطه مقابل OpenAI قرار داده و بر منافع عمومی و پیشرفت محتاطانه تمرکز کرده است. این شرکت توسط کارکنان سابق OpenAI تأسیس شد؛ این کارکنان معتقد هستند که OpenAI از مأموریت خود برای توسعه هوش مصنوعی ایمن‌تر و اخلاقی‌تر دور شده و پس از قرارداد چند میلیارد دلاری با مایکروسافت بیش‌ازحد بر منافع تجاری خود متمرکز شده است.

پیوستن مدیر سابق ایمنی OpenAI به آنتروپیک
لیکه پس از جدایی خود از OpenAI گفت: «کناره‌گیری از این شغل یکی از سخت‌ترین کارهایی بود که تا به حال انجام داده‌ام، زیرا ما نیازی مبرم داریم که سیستم‌های هوش مصنوعی را که از ما بسیار هوشمندتر هستند، هدایت و کنترل کنیم.»

البته OpenAI روز گذشته اعلام کرد که یک کمیته ایمنی جدیدی را به سرپرستی مدیران ارشد ازجمله «سم آلتمن»، مدیرعامل این شرکت ایجاد کرده است. هدف این کمیته نیز سنجش خطرات ناشی از مدل جدید و فناوری‌های آینده این شرکت خواهد بود.

ایمنی هوش مصنوعی از زمانی که ChatGPT در اواخر سال 2022 معرفی شد، اهمیت بسیاری در سراسر بخش فناوری پیدا کرد. برخی کارشناسان نیز در این صنعت ابراز نگرانی کرده‌اند که شرکت‌ها در عرضه محصولات قدرتمند هوش مصنوعی بدون درنظرگرفتن آسیب‌های احتمالی اجتماعی بسیار سریع عمل می‌کنند.


پربیننده ترین


سایر اخبار مرتبط