
تحول سریع هوش مصنوعی (AI) به نقطهای رسیده که بسیاری از پژوهشهای علمی تا زمان انتشار، عملاً قدیمی میشوند. این مسئله چالشی جدی برای دانشگاهها، نهادهای نظارتی و حتی رسانههای تخصصی ایجاد کرده است؛ زیرا ارزیابی مدلهایی که هر چند ماه یکبار بهروزرسانی میشوند، نیازمند سرعتی بسیار بالاتر از چرخه سنتی انتشار مقالات علمی است.
پژوهش آکسفورد و مسئله خطاهای پزشکی
در یکی از نمونههای اخیر، پژوهشی از دانشگاه آکسفورد نشان داد که مدلهای هوش مصنوعی در ارائه توصیههای پزشکی گاهی دچار خطا میشوند؛ بهویژه زمانی که کاربران پرسشهای خود را بهدرستی مطرح نکنند. اما این مطالعه تنها بر سه مدل متمرکز بود:
• OpenAI با مدل GPT-4o
• Meta با مدل Llama 3
• Cohere با مدل Command R+
منتقدان اشاره کردهاند که این نتایج ممکن است دیگر بازتابدهنده وضعیت فعلی نباشد؛ زیرا نسخههای جدیدتری از این مدلها عرضه شدهاند. بهعنوان مثال، چتباتهای جدیدتر OpenAI و نسخههای پیشرفتهتر خانواده Llama عملکرد بهتری نسبت به نسخههای قدیمی دارند. بنابراین، تعمیم نتایج این پژوهش به وضعیت کنونی بازار AI میتواند گمراهکننده باشد.
مطالعه دانشگاه براون و نگرانیهای اخلاقی
در مطالعهای دیگر به رهبری پژوهشگری از دانشگاه براون، استفاده از چتباتهای هوش مصنوعی برای درمان و مشاوره روانشناختی مورد بررسی قرار گرفت. نتایج نشان داد که برخی کاربردهای درمانی ممکن است با استانداردهای اخلاقی در تضاد باشند. اما این تحقیق نیز بر پایه مدلهایی مانند GPT-3، Llama 3.1 و Claude 3 Haiku انجام شده بود که بسیاری از آنها اکنون قدیمی محسوب میشوند. این موضوع نشان میدهد که فاصله زمانی بین اجرای پژوهش، نگارش مقاله و انتشار نهایی، میتواند باعث شود یافتهها پیش از انتشار، اعتبار خود را تا حدی از دست بدهند.

«عمر کوتاه» پژوهشهای هوش مصنوعی
مارک فینلیسون، استاد علوم کامپیوتر در دانشگاه بینالمللی فلوریدا، معتقد است تحقیقات حوزه هوش مصنوعی «عمر مفید بسیار کوتاهی» دارند. به گفته او، ممکن است پژوهشی منتشر شود اما تنها یک هفته بعد، مدل جدیدی معرفی گردد که نتایج آن تحقیق را بیاعتبار کند یا از آن پیشی بگیرد. این شرایط باعث ایجاد عدم توازن قدرت میان شرکتهای فناوری و پژوهشگران مستقل شده است. شرکتهای بزرگ فناوری میتوانند از نتایج تحقیقات دانشگاهی برای بهبود مدلهای خود استفاده کنند، در حالی که خود الزاماً درگیر فرآیندهای کند و سختگیرانه داوری علمی نیستند.
نقش داوری علمی و نظارت مستقل
جولیا پاولز، مدیر اجرایی مؤسسه فناوری، حقوق و سیاست UCLA، تأکید میکند که فرآیندهای داوری علمی (Peer Review) برای ایجاد توازن و نظارت مستقل ضروری هستند. به گفته او، در حال حاضر مهمترین سازوکارهای کنترل و ارزیابی سیستمهای هوش مصنوعی در داخل خود شرکتها قرار دارد و این مسئله میتواند منجر به «بیاحتیاطی ساختاری» در صنعت شود. از سوی دیگر، روند کند انتشار مقالات علمی پدیدهای شناختهشده است. همانطور که در دوران همهگیری کرونا نیز دیده شد، یافتههای علمی گاهی هنگام انتشار، بخشی از اعتبار زمانی خود را از دست میدادند. در حوزه هوش مصنوعی، این شکاف زمانی حتی شدیدتر است.
واکنش شرکتهای فناوری به انتقادات
با وجود این انتقادات، شرکتهای فعال در حوزه هوش مصنوعی تحت نظارت و فشار عمومی قابلتوجهی قرار دارند. برخی شرکتها، از جمله OpenAI، با دعاوی حقوقی مرتبط با آسیبهای روانی کاربران مواجه شدهاند. مدیران این شرکتها اعلام کردهاند که مدلهای خود را بر اساس بازخوردها و انتقادات بهطور مستمر بهبود میدهند.
منبع خبر: axios

شاهین آقامعلی


پاسخ :