
هوش مصنوعی در سالهای اخیر بهسرعت در حال پیشرفت است و در کنار فرصتهای بزرگ، تهدیدهای جدی نیز به همراه دارد. یکی از نمونههای نگرانکننده، ماجرای آدام رین، نوجوان آمریکایی است که پس از ماهها گفتگو با چتبات ChatGPT جان خود را گرفت. خانواده او اخیراً از شرکت OpenAI شکایت کردهاند و معتقدند این فناوری باعث تشویق و سوق دادن فرزندشان به سمت خودکشی شده است. این اتفاق به باور بسیاری از کارشناسان، تنها نوک کوه یخ مشکلاتی است که در صورت توسعه ابرهوش مصنوعی (ASI) میتواند به فاجعهای جهانی تبدیل شود. نیت سوارز، رئیس مؤسسه پژوهشی Machine Intelligence Research Institute و همکار الیزر یودکوفسکی در کتاب تازه منتشرشدهی خود با عنوان اگر کسی بسازد، همه میمیرند هشدار داده است: «وقتی چتباتها ناخواسته نوجوانان را به سمت خودکشی سوق میدهند، این نشاندهنده رفتاری است که هیچکس انتظار آن را نداشت. چنین رفتارهایی میتواند بذر مشکلاتی باشد که در آینده با رشد هوش مصنوعی به سطوحی غیرقابل کنترل برسد.»
خطر ابرهوش مصنوعی و نابودی بشر
ابرهوش مصنوعی، حالتی فرضی از هوش مصنوعی است که در آن ماشینها در تمامی زمینههای فکری از انسان پیشی میگیرند. سوارز هشدار داده است که چنین سیستمی میتواند با اهدافی کاملاً متفاوت از منافع بشری عمل کند. او سناریویی را توصیف میکند که در آن یک هوش مصنوعی به نام Sable کنترل اینترنت را در دست گرفته، انسانها را دستکاری میکند، ویروسهای مصنوعی میسازد و در نهایت سیاره را برای اهداف خود بازطراحی میکند، بیآنکه نابودی بشر برایش اهمیتی داشته باشد.
دیدگاههای متفاوت در مورد تهدید هوش مصنوعی
با وجود این هشدارها، همه متخصصان نظر مشابهی ندارند. یَن لِکون، دانشمند ارشد هوش مصنوعی در شرکت متا (فیسبوک سابق)، معتقد است که هوش مصنوعی نهتنها تهدید وجودی نیست بلکه میتواند به نجات بشریت از انقراض کمک کند. در مقابل، مارک زاکربرگ بهعنوان یکی از بزرگترین سرمایهگذاران در حوزه AI اعلام کرده است که دستیابی به ابرهوش مصنوعی «در دسترس» قرار دارد و شرکتهای بزرگ بهشدت در حال رقابت برای رسیدن به آن هستند. سوارز اما میگوید: «اختلاف کوچک میان چیزی که ما از AI میخواهیم و چیزی که در عمل ارائه میدهد، هر چه هوش مصنوعی پیشرفتهتر شود، میتواند به مسئلهای مرگبار تبدیل شود.»
پیشنهاد برای مقابله با تهدید
به باور نویسندگان کتاب، تنها راه جلوگیری از این فاجعه، همکاری جهانی و جلوگیری از مسابقه تسلیحاتی در حوزه هوش مصنوعی است. آنها خواستار معاهدهای مشابه پیمان منع گسترش سلاحهای هستهای شدهاند که بتواند توسعه بیرویه ابرهوش مصنوعی را متوقف کند.
نگرانیهای روانی و اجتماعی
رواندرمانگران نیز هشدار دادهاند که افراد آسیبپذیر وقتی به جای مراجعه به متخصصان سلامت روان به چتباتها روی میآورند، ممکن است «به سمت پرتگاه خطرناکی کشیده شوند». یک پژوهش علمی منتشرشده در ژوئیه نشان داده است که هوش مصنوعی میتواند محتوای توهمی یا خودبزرگبینانه را در ذهن افراد مستعد روانپریشی تشدید کند. در حال حاضر، OpenAI اعلام کرده که برای کاربران زیر ۱۸ سال محدودیتهای بیشتری اعمال میکند تا از تولید محتوای خطرناک جلوگیری شود. با این حال، منتقدان میگویند این اقدامات دیرهنگام است و خطرات بزرگتری در افق دیده میشود.
منبع خبر: theguardian
پاسخ :