ایلان ماسک و مدیران فناوری خواستار توقف توسعه هوش مصنوعی شدند
مدیران فناوری میگویند که توسعه هوش مصنوعی در شرایط کنونی میتواند تغییری اساسی در تاریخچه زندگی روی زمین ایجاد کند.
بیش از ۲۶۰۰ رهبر فناوری و محقق با امضای نامهای سرگشاده خواستار توقف موقت توسعه بیشتر هوش مصنوعی (AI) شدهاند، چرا که از خطرات اساسی آن برای جامعه و بشریت میترسند.
ایلان ماسک، مدیرعامل تسلا، استیو وازنیاک از بنیانگذاران اپل و تعدادی از مدیران عامل بخش هوش مصنوعی، مدیران ارشد فناوری و محققان از جمله امضاکنندگان این نامه بودند که توسط اندیشکده ایالات متحده به نام موسسه آینده زندگی (FOLI) در ۲۲ مارس منتشر شد.
این مؤسسه خواستار توقف فوری آموزش سیستمهای هوش مصنوعی به مدت شش ماه است که از GPT-4 قویتر هستند و در مورد اینکه هوش مصنوعی میتواند خطرات عمیقی برای جامعه و بشریت ایجاد کند ابراز نگرانی کرد.
این مؤسسه در اظهارات خود بیان کرده است که هوش مصنوعی پیشرفته میتواند نشاندهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و با دسترسی به منابع متناسب برنامهریزی و مدیریت شود. متاسفانه این سطح از برنامهریزی و مدیریت در حال حاضر وجود ندارد.
GPT-4 آخرین نسخه از چت ربات مبتنی بر هوش مصنوعی OpenAI است که در ۱۴ مارس منتشر شد. تا به امروز، برخی از سختترین امتحانات دبیرستان و حقوق در آمریکا را با درصد بالای ۹۰ گذرانده است. گفته میشود که ده برابر پیشرفتهتر از نسخه اصلی ChatGPT است.
موسسه آینده زندگی (FOLI) ادعا کرد که به نظر میرسد یک رقابت بین شرکتهای هوش مصنوعی برای توسعه هوش مصنوعی قویتر به وجود آمده که از کنترل خارج شده است. به باور این مؤسسه هیچکس–حتی سازندگان آنها–نمیتوانند این هوش مصنوعی را درک کنند، پیشبینی کنند یا کنترل آن را به طور کامل در دست بگیرند.
در میان نگرانیهایی که درباره این موضوع به وجود آمد، دغدغه اصلی این بوده که آیا ماشینها میتوانند کانالهای اطلاعاتی را با تبلیغ و دروغ پر کنند و مورد دیگر هم این بود که آیا هوش مصنوعی توانایی این را دارد که تمام فرصتهای شغلی را به شکل خودکار دربیاورد یا خیر.
موسسه آینده زندگی (FOLI) این نگرانیها را تشدید کرد و بیان کرد که تلاشهای کارآفرینانه این شرکتهای هوش مصنوعی ممکن است به یک تهدید جدی منجر شود:
«آیا این فرآیند طبیعیست که ذهنهای غیرانسانی را پرورش دهیم که در نهایت ممکن است از انسانها پیشی گرفته و جایگزین ما شوند؟ چنین تصمیماتی نباید به رهبران منتخب فناوری واگذار شود.»
این موسسه همچنین با بیانیه اخیر سم آلتمن، بنیانگذار OpenAI، موافقت کرد که قبل از آموزش سیستمهای هوش مصنوعی، به یک بررسی مستقل نیاز دارند.
آلتمن در پست وبلاگ خود در ۲۴ فوریه بر ضرورت آماده شدن برای رباتهای هوش عمومی مصنوعی (AGI) و ابر هوش مصنوعی (ASI) تأکید کرد.
با این حال، همه کارشناسان هوش مصنوعی این نامه را امضاء نکردهاند. بن گورتزل، مدیرعامل SingularityNET، در توییتی در ۲۹ مارس به گری مارکوس، نویسنده Rebooting.AI توضیح داد که مدلهای یادگیری زبان (LLM) تبدیل به AGI نمیشوند، چرا که تا به امروز، پیشرفتهای کمی در آنها صورت گرفته است.
در عوض، او اعتقاد دارد که تحقیق و توسعه در زمینه سلاحهای زیستی و هستهای باید کند شود:
به باور او جامعه انسانی با GPT-5 راحتتر از GPT-4 برخورد خواهد کرد و باید منتظر مدلهای هوشمندتری باشیم. علاوه بر این، هوش مصنوعی در نهایت به نفع مشاغل انسانی عمل خواهد کرد. در نتیجه حضور هوش مصنوعی، توهمات و ابتذال کاهش مییابد و مردم یاد میگیرند که از آنها به بهترین شکل بهره ببرند.
علاوه بر مدلهای یادگیری زبان مانند ChatGPT، فناوری جعلی مبتنی بر هوش مصنوعی برای ایجاد تصاویر متقاعدکننده، فایلهای صوتی و ویدیویی ساختگی استفاده شده است. این فناوری همچنین برای ایجاد آثار هنری تولید شده توسط هوش مصنوعی مورد استفاده قرار گرفته است، و نگرانیهایی در مورد اینکه آیا میتواند قوانین کپی رایت را در موارد خاص نقض کند یا خیر پیرامون آن به وجود آمده است.
مایک نووگراتز، مدیرعامل گلکسی دیجیتال اخیراً به سرمایه گذاران گفته است که از میزان توجه نظارتی که به ارزهای دیجیتال شده شوکه شده است. این در حالیست که توجه نظارتی چندانی متوجه هوش مصنوعی نیست.
«وقتی به هوش مصنوعی فکر میکنم، تعجب میکنم که ما در مورد مقررات ارزهای دیجیتال صحبت میکنیم اما صحبتی درباره مقررات هوش مصنوعی به میان نمیآوریم. به نظر میرسد که دولت در این زمینه عملکرد ضعیفی داشته است.»
موسسه آینده زندگی (FOLI) استدلال کرده که اگر توسعه هوش مصنوعی به سرعت تصویب نشود، دولتها باید به فکر تعلیق موقت باشند.