
شرکت IBM به تازگی از Granite 4.0 Nano رونمایی کرده است؛ کوچکترین مدل هوش مصنوعی این شرکت که با هدف پردازش روی دستگاه و بدون نیاز به منابع ابری طراحی شده است. این مدلها نشان میدهند که بزرگی مدل لزوماً به معنای عملکرد بهتر نیست و میتوان با تعداد پارامترهای کم نیز قابلیتهای مفید و کاربردی ارائه داد. مدل Granite 4.0 Nano تنها حدود 1 میلیارد پارامتر دارد و در مقایسه با مدلهای عظیم تولیدشده توسط شرکتهایی مثل OpenAI و Google بسیار کوچکتر است. با این وجود IBM تأکید میکند که این مدلها برای انجام وظایف عملی در محیطهای واقعی و بهویژه پردازشهای لبهای (Edge AI) بسیار مناسب هستند.
این خانواده از مدلها در دو نسخه اصلی عرضه شدهاند:
• نسخه 350 میلیون پارامتری
• نسخه 1.5 میلیارد پارامتری
هر دو نسخه دارای دو معماری متفاوت هستند:
1. Hybrid-SSM (حالت هیبریدی با ساختار State Space Model) که برای کاهش مصرف حافظه و افزایش سرعت طراحی شده است.
2. نسخههای Transformer کلاسیک برای سازگاری با ابزارهایی مانند llama.cpp.

این مدلها تحت لایسنس Apache 2.0 منتشر شدهاند و به همین دلیل استفادهی تجاری و توسعه سفارشی روی آنها آزاد است. همچنین مدلها با پلتفرمهای vLLM، MLX و llama.cpp سازگار هستند و حتی ضعیفترین نسخه میتواند بهصورت محلی روی لپتاپ اجرا شود؛ بدون نیاز به اینترنت یا پردازش ابری.
IBM در توضیحات خود در Reddit اعلام کرده که این مدلها مخصوص کاربردهای:
• خلاصهسازی و استخراج اطلاعات
• طبقهبندی محتوا
• RAG سبک (بازیابی و تولید پاسخ)
• فراخوانی توابع و ابزارهای خودکار (function calling)

طراحی شدهاند و برای وظایف پیچیده و سنگین مناسب نیستند. اما در پردازشهای بلادرنگ و کمتأخیر عملکرد بسیار خوبی دارند. این مدلها همچنین دارای گواهی ISO 42001 مربوط به توسعه مسئولانه هوش مصنوعی هستند؛ موضوعی که در فضای رقابتی مدلهای سبک اهمیت زیادی دارد. IBM ادعا کرده است که Granite 4.0 Nano از لحاظ کارایی در مقایسه با مدلهای سبک رقبایی مانند Qwen، LFM و Gemma نتایج قابلتوجهی ارائه داده است. همچنین این شرکت اعلام کرده که نسخههای بزرگتر این خانواده نیز در حال آموزش هستند و در آینده معرفی خواهند شد.
منبع خبر: aibusiness

شاهین آقامعلی


پاسخ :