التكنولوجيا الحديثة

أطلقت OpenAI لأول مرة نموذج GPT-4o”omni” الذي يعمل الآن على تشغيل ChatGPT

قدمت OpenAI نموذجًا جديدًا للغة كبيرة الحجم يسمى GPT-4o، وهو أسرع بشكل ملحوظ ومتاح مجانًا للجميع.

تم الكشف عن نموذج اللغة الكبير الجديد لشركة OpenAI GPT-4o خلال الحدث الخاص للشركة. GPT-4o هو نسخة معدلة من نموذج اللغة GPT-4 الذي يعمل بمثابة القلب النابض لروبوت الدردشة ChatGPT الشهير. الحرف o في GPT-4o يرمز إلى Omni، وهو ما يعني عالمي أو عالمي.

ووفقا لميرا موراتي، الرئيس التنفيذي للتكنولوجيا في OpenAI، فإن النموذج الجديد للشركة أسرع بكثير ويظهر أداء مثيرا للإعجاب في مجال فهم النص ومحتوى الفيديو والمحتوى الصوتي.

تقول OpenAI أن نموذج اللغة GPT-4o الكبير متاح مجانًا للجميع، ولكن الحد الأقصى لسعة مستخدمي الاشتراك هو خمسة أضعاف الإصدار المجاني؛ وهذا يعني أنه يمكن لمستخدمي الاشتراك إرسال طلبات أكثر بخمس مرات يوميًا.

وفي جزء من حفل OpenAI، شاهدنا الأداء المذهل لـGPT-4o في حل المشكلات الرياضية وحتى فهم نبرة كلام المستخدم. تتفاعل الوظيفة الصوتية الجديدة لـ GPT-4o بشكل كامل مع مشاعر المستخدم وتبدأ في التحدث وحتى سرد القصص بنبرة ودية.

صرح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أن نموذج GPT-4o “متعدد الأوضاع بطبيعته”. وهذا يعني أن النموذج الجديد يمكنه إنتاج وفهم محتوى الصوت والفيديو بالإضافة إلى النص.

نموذج اللغة GPT- 4

الذكاء الاصطناعي GPT-4o يجعل المحادثات بين الإنسان والكمبيوتر أكثر طبيعية

يمكن للمطورين المهتمين بـ GPT-4o شراء واجهة برمجة التطبيقات (API) لنموذج الذكاء الاصطناعي هذا بنصف سعر GPT-4 Turbo. GPT-4o أسرع بمرتين من إصدار Turbo.

ووفقا لشركة OpenAI، فإن معظم قدرات نموذج الذكاء الاصطناعي الجديد للشركة سيتم توفيرها تدريجيا؛ ومع ذلك، تتوفر إمكانات النص والفيديو في Chatbot chatGPT بدءًا من اليوم.

يعد نموذج اللغة GPT-4o خطوة نحو تطبيع التفاعل بين الإنسان والحاسوب ويمكنه الاستجابة للمدخلات الصوتية في 232 مللي ثانية فقط (متوسط 320 مللي ثانية)؛ تدعي شركة OpenAI أن وقت استجابة GPT-4o يشبه زمن استجابة الإنسان في المحادثة اليومية.

تقديم GPT-4o

يبدو أن GPT- 4o على قدم المساواة مع إصدار Turbo من حيث فهم النصوص والأكواد الإنجليزية، ولكنه أرخص وأسرع بكثير. تم تحسين نموذج اللغة الجديد هذا بشكل خاص في القدرة على فهم المحتوى المرئي والصوتي.

قبل إصدار GPT-4o، كان بإمكانك الدردشة مع ChatGPT عبر الوضع الصوتي مع تأخير قدره 2.8 ثانية (في GPT-3.5) أو 5.4 ثانية (في GPT-4). ويعتمد وضع الصوت على ثلاثة نماذج لتوفير هذه الميزة: نموذج بسيط لتحويل الصوت إلى نص، أو GPT-3.5 أو GPT-4 لتحويل النص إلى نص، وأخيرًا نموذج ثالث لتحويل النص إلى صوت.

مع إصدار GPT-4o، تتغير آلية وظيفة الصوت في ChatGPT. تقول شركة OpenAI إنها طورت نموذجًا جديدًا يمكنه الوصول بشكل كامل إلى النصوص والصوت والصور، ويوفر سرعات أعلى بكثير.

وفقًا لـ OpenAI، فإن نموذج الذكاء الاصطناعي GPT-4o، إلى جانب الأداء السريع والدقيق، يولي اهتمامًا خاصًا للسلامة ولا يولد محتوى حساسًا.

يمكن للجميع الوصول إلى GPT-4o مجانًا

ربما يكون هذا هو التحسن الأكثر أهمية. قامت OpenAI عادة بتقييد الإصدارات الأكثر تقدمًا من GPT، في حين أن 4o متاح لجميع مستخدمي ChatGPT منذ البداية وللتجربة عليك الدخول من هنا. الحدود الأساسية هي التفاعل الصوتي في الوقت الفعلي (والذي سيقتصر على عملاء Plus متى تم تنفيذه) ومقدار المطالبات التي قد تستخدمها.

يتلقى مستخدمو ChatGPT Plus وTeam خمسة أضعاف عدد المطالبات، وهو أمر مهم لأن الدردشات الافتراضية هي GPT-3.5 بمجرد الوصول إلى حد المطالبات الخاص بك. إذا كنت تتوقع أن يعمل GPT-4o بشكل مشابه لجهاز كمبيوتر Enterprise، فقد تكون هناك حاجة إلى Plus.

Wesam Web

في موقع وسام ويب، يجمع فريق كتّابنا المبدع بين الخبرة والشغف في مجالات التكنولوجيا والبرمجة والذكاء الاصطناعي وتصميم المواقع. نحن نقف وراء هذه الكلمات والأفكار التقنية، مقدمين لكم معرفة عميقة وتحليلات دقيقة. نستكشف أحدث التقنيات وأبرز الاختراعات، مقدمين لكم فهمًا شاملاً للتطورات الحديثة. مؤلفو وسام ويب يشاركون معكم تجاربهم وتفانيهم في مجالات الابتكار والتطور التكنولوجي. انضموا إلينا في هذه الرحلة الملهمة لاستكشاف أحدث التقنيات، حيث يتم تقديم الأفضل من قبل الكتّاب الرائدين في هذا الميدان."
زر الذهاب إلى الأعلى