سرعت پیشرفت باورنکردی هوش مصنوعی در پژوهش های علمی

...

تحول سریع هوش مصنوعی (AI) به نقطه‌ای رسیده که بسیاری از پژوهش‌های علمی تا زمان انتشار، عملاً قدیمی می‌شوند. این مسئله چالشی جدی برای دانشگاه‌ها، نهادهای نظارتی و حتی رسانه‌های تخصصی ایجاد کرده است؛ زیرا ارزیابی مدل‌هایی که هر چند ماه یک‌بار به‌روزرسانی می‌شوند، نیازمند سرعتی بسیار بالاتر از چرخه سنتی انتشار مقالات علمی است.

پژوهش آکسفورد و مسئله خطاهای پزشکی

در یکی از نمونه‌های اخیر، پژوهشی از دانشگاه آکسفورد نشان داد که مدل‌های هوش مصنوعی در ارائه توصیه‌های پزشکی گاهی دچار خطا می‌شوند؛ به‌ویژه زمانی که کاربران پرسش‌های خود را به‌درستی مطرح نکنند. اما این مطالعه تنها بر سه مدل متمرکز بود:

•    OpenAI با مدل GPT-4o
•    Meta با مدل Llama 3
•    Cohere با مدل Command R+

منتقدان اشاره کرده‌اند که این نتایج ممکن است دیگر بازتاب‌دهنده وضعیت فعلی نباشد؛ زیرا نسخه‌های جدیدتری از این مدل‌ها عرضه شده‌اند. به‌عنوان مثال، چت‌بات‌های جدیدتر OpenAI و نسخه‌های پیشرفته‌تر خانواده Llama عملکرد بهتری نسبت به نسخه‌های قدیمی دارند. بنابراین، تعمیم نتایج این پژوهش به وضعیت کنونی بازار AI می‌تواند گمراه‌کننده باشد.

مطالعه دانشگاه براون و نگرانی‌های اخلاقی

در مطالعه‌ای دیگر به رهبری پژوهشگری از دانشگاه براون، استفاده از چت‌بات‌های هوش مصنوعی برای درمان و مشاوره روان‌شناختی مورد بررسی قرار گرفت. نتایج نشان داد که برخی کاربردهای درمانی ممکن است با استانداردهای اخلاقی در تضاد باشند. اما این تحقیق نیز بر پایه مدل‌هایی مانند GPT-3، Llama 3.1 و Claude 3 Haiku انجام شده بود که بسیاری از آن‌ها اکنون قدیمی محسوب می‌شوند. این موضوع نشان می‌دهد که فاصله زمانی بین اجرای پژوهش، نگارش مقاله و انتشار نهایی، می‌تواند باعث شود یافته‌ها پیش از انتشار، اعتبار خود را تا حدی از دست بدهند.

 

هوش مصنوعی در پژهش های علمی

 

«عمر کوتاه» پژوهش‌های هوش مصنوعی

مارک فینلیسون، استاد علوم کامپیوتر در دانشگاه بین‌المللی فلوریدا، معتقد است تحقیقات حوزه هوش مصنوعی «عمر مفید بسیار کوتاهی» دارند. به گفته او، ممکن است پژوهشی منتشر شود اما تنها یک هفته بعد، مدل جدیدی معرفی گردد که نتایج آن تحقیق را بی‌اعتبار کند یا از آن پیشی بگیرد. این شرایط باعث ایجاد عدم توازن قدرت میان شرکت‌های فناوری و پژوهشگران مستقل شده است. شرکت‌های بزرگ فناوری می‌توانند از نتایج تحقیقات دانشگاهی برای بهبود مدل‌های خود استفاده کنند، در حالی که خود الزاماً درگیر فرآیندهای کند و سخت‌گیرانه داوری علمی نیستند.

نقش داوری علمی و نظارت مستقل

جولیا پاولز، مدیر اجرایی مؤسسه فناوری، حقوق و سیاست UCLA، تأکید می‌کند که فرآیندهای داوری علمی (Peer Review) برای ایجاد توازن و نظارت مستقل ضروری هستند. به گفته او، در حال حاضر مهم‌ترین سازوکارهای کنترل و ارزیابی سیستم‌های هوش مصنوعی در داخل خود شرکت‌ها قرار دارد و این مسئله می‌تواند منجر به «بی‌احتیاطی ساختاری» در صنعت شود. از سوی دیگر، روند کند انتشار مقالات علمی پدیده‌ای شناخته‌شده است. همان‌طور که در دوران همه‌گیری کرونا نیز دیده شد، یافته‌های علمی گاهی هنگام انتشار، بخشی از اعتبار زمانی خود را از دست می‌دادند. در حوزه هوش مصنوعی، این شکاف زمانی حتی شدیدتر است.

واکنش شرکت‌های فناوری به انتقادات

با وجود این انتقادات، شرکت‌های فعال در حوزه هوش مصنوعی تحت نظارت و فشار عمومی قابل‌توجهی قرار دارند. برخی شرکت‌ها، از جمله OpenAI، با دعاوی حقوقی مرتبط با آسیب‌های روانی کاربران مواجه شده‌اند. مدیران این شرکت‌ها اعلام کرده‌اند که مدل‌های خود را بر اساس بازخوردها و انتقادات به‌طور مستمر بهبود می‌دهند.

منبع خبر: axios

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟