«ريد هات» تكشف الجيل الثالث من منصتها للذكاء الاصطناعي

البوابة نيوز 0 تعليق ارسل طباعة تبليغ حذف
تابع أحدث الأخبار عبر تطبيق google news

 أعلنت شركة ريد هات (Red Hat) – الرائدة عالميًا في الحلول مفتوحة المصدر – عن إطلاق الإصدار الثالث من منصتها للذكاء الاصطناعي (Red Hat AI 3)، المصمم لتبسيط دورة حياة الذكاء الاصطناعي وتوسيع نطاق استخدامه في البيئات السحابية الهجينة.

المنصة الجديدة تأتي في وقت تشهد فيه المؤسسات سباقًا محمومًا بين التجريب والتطبيق، إذ لم تتمكن غالبية الشركات بعد من تحقيق عائدات ملموسة من استثماراتها الضخمة في الذكاء الاصطناعي، بحسب دراسة حديثة لمعهد ماساتشوستس للتكنولوجيا تشير إلى أن نحو 95% من المؤسسات لم تحقق عوائد مالية واضحة رغم إنفاقها 40 مليار دولار عالميًا.

بنية هجينة أكثر ذكاءً

تضم المنصة الجديدة ثلاثة مكونات رئيسية مترابطة هي خادم استدلال الذكاء الاصطناعي من ريد هات.

ريد هات إنتربرايز لينوكس للذكاء الاصطناعي (RHEL AI)و ريد هات أوبن شيفت للذكاء الاصطناعي (OpenShift AI).

هذا الدمج يهدف إلى منح المؤسسات إمكانية إدارة النماذج اللغوية الكبيرة (LLMs) وتوسيع استخدامها بمرونة عبر السحابة العامة أو الخاصة أو مراكز البيانات المحلية. كما تعزز المنصة سرعة تنفيذ العمليات، وتقلل التكلفة، وتحافظ على سيادة البيانات في القطاعات الحساسة مثل التمويل والصحة.

معالجة التحدي الأكبر في عصر الذكاء الاصطناعي

بينما ركزت المؤسسات سابقًا على تدريب النماذج وضبطها، تنتقل اليوم إلى مرحلة الاستدلال، وهي عملية تحويل النماذج إلى أدوات فعالة قادرة على اتخاذ القرار وتنفيذ المهام.
وهنا تبرز قوة «ريد هات AI 3»، التي تقدم حلول استدلال ذكية قابلة للتوسع باستخدام مشاريع مفتوحة المصدر مثل vLLM وllm-d.

وتتيح المنصة توزيع مهام الاستدلال على بيئات مختلفة عبر بنية كوبرنيتس (Kubernetes)، مع استخدام تقنيات مثل:NVIDIA Dynamo وNIXL لتسريع نقل البيانات، DeepEP MoE لدمج أنظمة "خليط الخبراء"و

Gateway API Inference Extension لتسهيل إدارة عمليات النشر.

هذه التركيبة تمنح المؤسسات قدرة غير مسبوقة على خفض التكاليف وتحسين زمن الاستجابة أثناء تشغيل التطبيقات المعتمدة على الذكاء الاصطناعي.

تجربة عمل موحدة ومتكاملة

تتيح المنصة الجديدة بيئة عمل تعاونية تربط بين فرق تكنولوجيا المعلومات ومهندسي الذكاء الاصطناعي من خلال أدوات موحدة مثل: النماذج كخدمة (MaaS) التي توفر الوصول إلى النماذج المركزية عند الطلب ومركز الذكاء الاصطناعي (AI Hub) لإدارة الأصول والنماذج في مكان واحد واستوديو الذكاء الاصطناعي التوليدي (Gen AI Studio) الذي يمنح المطورين بيئة تفاعلية لتجربة النماذج وضبط معاييرها وتطوير تطبيقات جديدة بسرعة.

وتتضمن المنصة مكتبة من النماذج الجاهزة أبرزها GPT-OSS وDeepSeek-R1 وWhisper لتحويل الصوت إلى نص، ما يجعلها منصة إنتاجية شاملة لاختبار ونشر الذكاء الاصطناعي المؤسسي.

نحو وكلاء ذكاء اصطناعي ذاتي التشغيل

تضع «ريد هات» الأسس لمرحلة جديدة من الذكاء الاصطناعي القائم على الوكلاء المستقلين (AI Agents)، الذين يمكنهم التفاعل مع الأدوات والأنظمة دون تدخل مباشر.
المنصة تدعم بروتوكولات Llama Stack وMCP (Model Context Protocol) لضمان تكامل هذه الوكلاء مع مختلف الأنظمة. كما توفر مكتبات تطوير بلغة بايثون لتخصيص النماذج وتوليد بيانات اصطناعية وتحسين دقتها بناءً على بيانات المؤسسة نفسها.

تقنيات جديدة للاستدلال الموزّع وتطبيقات الذكاء الاصطناعي التشغيلية على نطاق مؤسسي

قال جو فرنانديز، نائب الرئيس والمدير العام لوحدة أعمال الذكاء الاصطناعي في ريد هات مع توسع المؤسسات في استخدام الذكاء الاصطناعي، تزداد الحاجة إلى بنية مفتوحة وموثوقة تقلل التعقيد وتزيد الكفاءة. Red Hat AI 3 يمنح الشركات هذه الميزة على أي بنية تحتية."

وأكد دان ماكنمارا، نائب الرئيس التنفيذي في AMD، أن الشراكة مع «ريد هات» تجمع بين أداء معالجات EPYC وقدرات معالجات Instinct لتقديم حلول متكاملة، بينما وصف أوجفال كاباسي من NVIDIA المنصة بأنها "نقلة نوعية في تشغيل أحمال العمل الضخمة والاستدلال المتقدم في عصر الذكاء الاصطناعي التوليدي".

أخبار ذات صلة

0 تعليق