اخبار بین المللاخبار قانون‌گذاری

ایلان ماسک و مدیران فناوری خواستار توقف توسعه هوش مصنوعی شدند

مدیران فناوری می‌گویند که توسعه هوش مصنوعی در شرایط کنونی می‌تواند تغییری اساسی در تاریخچه زندگی روی زمین ایجاد کند.

بیش از ۲۶۰۰ رهبر فناوری و محقق با امضای نامه‌ای سرگشاده خواستار توقف موقت توسعه بیشتر هوش مصنوعی (AI) شده‌اند، چرا که از خطرات اساسی آن برای جامعه و بشریت می‌ترسند.

ایلان ماسک، مدیرعامل تسلا، استیو وازنیاک از بنیانگذاران اپل و تعدادی از مدیران عامل بخش هوش مصنوعی، مدیران ارشد فناوری و محققان از جمله امضاکنندگان این نامه بودند که توسط اندیشکده ایالات متحده به نام موسسه آینده زندگی (FOLI) در ۲۲ مارس منتشر شد.

این مؤسسه خواستار توقف فوری آموزش سیستم‌های هوش مصنوعی به مدت شش ماه است که از GPT-4 قوی‌تر هستند و در مورد اینکه هوش مصنوعی می‌تواند خطرات عمیقی برای جامعه و بشریت ایجاد کند ابراز نگرانی کرد.

این مؤسسه در اظهارات خود بیان کرده است که هوش مصنوعی پیشرفته می‌تواند نشان‌دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و با دسترسی به منابع متناسب برنامه‌ریزی و مدیریت شود. متاسفانه این سطح از برنامه‌ریزی و مدیریت در حال حاضر وجود ندارد.

GPT-4 آخرین نسخه از چت ربات مبتنی بر هوش مصنوعی OpenAI است که در ۱۴ مارس منتشر شد. تا به امروز، برخی از سخت‌ترین امتحانات دبیرستان و حقوق در آمریکا را با درصد بالای ۹۰ گذرانده است. گفته می‌شود که ده برابر پیشرفته‌تر از نسخه اصلی ChatGPT است.

موسسه آینده زندگی (FOLI) ادعا کرد که به نظر می‌رسد یک رقابت بین شرکت‌های هوش مصنوعی برای توسعه هوش مصنوعی قوی‌تر به وجود آمده که از کنترل خارج شده است. به باور این مؤسسه هیچکس–حتی سازندگان آنها–نمی‌توانند این هوش مصنوعی را درک کنند، پیش‌بینی کنند یا کنترل آن را به طور کامل در دست بگیرند.

در میان نگرانی‌هایی که درباره این موضوع به وجود آمد، دغدغه اصلی این بوده که آیا ماشین‌ها می‌توانند کانال‌های اطلاعاتی را با تبلیغ و دروغ پر کنند و مورد دیگر هم این بود که آیا هوش مصنوعی توانایی این را دارد که تمام فرصت‌های شغلی را به شکل خودکار دربیاورد یا خیر.

موسسه آینده زندگی (FOLI) این نگرانی‌ها را تشدید کرد و بیان کرد که تلاش‌های کارآفرینانه این شرکت‌های هوش مصنوعی ممکن است به یک تهدید جدی منجر شود:

«آیا این فرآیند طبیعیست که ذهن‌های غیرانسانی را پرورش دهیم که در نهایت ممکن است از انسان‌ها پیشی گرفته و جایگزین ما شوند؟ چنین تصمیماتی نباید به رهبران منتخب فناوری واگذار شود.»

این موسسه همچنین با بیانیه اخیر سم آلتمن، بنیانگذار OpenAI، موافقت کرد که قبل از آموزش سیستم‌های هوش مصنوعی، به یک بررسی مستقل نیاز دارند.

آلتمن در پست وبلاگ خود در ۲۴ فوریه بر ضرورت آماده شدن برای ربات‌های هوش عمومی مصنوعی (AGI) و ابر هوش مصنوعی (ASI) تأکید کرد.

با این حال، همه کارشناسان هوش مصنوعی این نامه را امضاء نکرده‌اند. بن گورتزل، مدیرعامل SingularityNET، در توییتی در ۲۹ مارس به گری مارکوس، نویسنده Rebooting.AI توضیح داد که مدل‌های یادگیری زبان (LLM) تبدیل به AGI نمی‌شوند، چرا که تا به امروز، پیشرفت‌های کمی در آنها صورت گرفته است.

در عوض، او اعتقاد دارد که تحقیق و توسعه در زمینه سلاح‌های زیستی و هسته‌ای باید کند شود:

به باور او جامعه انسانی با GPT-5 راحت‌تر از GPT-4 برخورد خواهد کرد و باید منتظر مدل‌های هوشمندتری باشیم. علاوه بر این، هوش مصنوعی در نهایت به نفع مشاغل انسانی عمل خواهد کرد. در نتیجه حضور هوش مصنوعی، توهمات و ابتذال کاهش می‌یابد و مردم یاد می‌گیرند که از آنها به بهترین شکل بهره ببرند.

علاوه بر مدل‌های یادگیری زبان مانند ChatGPT، فناوری جعلی مبتنی بر هوش مصنوعی برای ایجاد تصاویر متقاعدکننده، فایل‌های صوتی و ویدیویی ساختگی استفاده شده است. این فناوری همچنین برای ایجاد آثار هنری تولید شده توسط هوش مصنوعی مورد استفاده قرار گرفته است، و نگرانی‌هایی در مورد اینکه آیا می‌تواند قوانین کپی رایت را در موارد خاص نقض کند یا خیر پیرامون آن به وجود آمده است.

مایک نووگراتز، مدیرعامل گلکسی دیجیتال اخیراً به سرمایه گذاران گفته است که از میزان توجه نظارتی که به ارزهای دیجیتال شده شوکه شده است. این در حالیست که توجه نظارتی چندانی متوجه هوش مصنوعی نیست.

«وقتی به هوش مصنوعی فکر می‌کنم، تعجب می‌کنم که ما در مورد مقررات ارزهای دیجیتال صحبت می‌کنیم اما صحبتی درباره مقررات هوش مصنوعی به میان نمی‌آوریم. به نظر می‌رسد که دولت در این زمینه عملکرد ضعیفی داشته است.»

موسسه آینده زندگی (FOLI) استدلال کرده که اگر توسعه هوش مصنوعی به سرعت تصویب نشود، دولت‌ها باید به فکر تعلیق موقت باشند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا