تقديم ميتا لاما 3.2! نهاية GPT-4o؟

قدمت Meta نموذج الذكاء الاصطناعي Llama 3.2 كجزء من حدث Connect 2024. إمكانيات الوسائط المتعددة…

قدمت Meta نموذج الذكاء الاصطناعي Llama 3.2 كجزء من حدث Connect 2024. الذكاء الاصطناعي بقدرات متعددة الوسائط؛ إنه يتحدى منافسيه مثل GPT-4o بقدراته مثل معالجة الصور واكتشاف الصوت.

ماذا يعد Meta Llama 3.2؟

نماذج اللاما 3.2 الجديدة؛ يحتوي على إصدارات تحتوي على 11 مليار و90 مليار معلمة يمكنها فهم النصوص والصور. يمكن لهذه النماذج الإجابة على أسئلة حول اتجاهات البيانات عن طريق استخراج المعلومات من الرسوم البيانية والمخططات. ويمكنه أيضًا تحديد الأشياء والتفاصيل المهمة لإضافة عناوين للصور.

قدمت Meta أيضًا نماذج Llama 3.2 مع مليار و3 مليارات معلمة محسنة للمطورين والشركات. تم تصميم هذه النماذج خصيصًا لإنشاء تطبيقات مخصصة على منصات المراسلة.

تدعي Meta أن Llama 3.2 ينافس نماذج Anthropic وOpenAI في مهام مثل التعرف على الصور ويتفوق على أنظمة الذكاء الاصطناعي للمحادثة الأخرى في معايير فهم اللغة.

بالإضافة إلى ذلك، يستطيع Llama 3.2 تجميع الأصوات الشبيهة بالأصوات البشرية عند الاستجابة. كما ستتمتع السيدة جودي دينش بالقدرة على الرد باستخدام أصوات أسماء مشهورة مثل جون سينا ​​وكريستين بيل. وفي هذا السياق، سيتم إضافة أصوات الذكاء الاصطناعي إلى منصات التواصل الاجتماعي مثل Messenger وInstagram.

أخبار ذات صلة