أعلنت شركة 𝗢𝗽𝗲𝗻𝗔𝗜 عن نموذج جديد للذكاء الاصطناعي أطلقوا عليه اسم 𝗚𝗣𝗧-𝟰𝗼

أعلنت شركة 𝗢𝗽𝗲𝗻𝗔𝗜 عن نموذج جديد للذكاء الاصطناعي أطلقوا عليه اسم 𝗚𝗣𝗧-𝟰𝗼

 

 

أعلنت شركة 𝗢𝗽𝗲𝗻𝗔𝗜 عن نموذج جديد للذكاء الاصطناعي أطلقوا عليه اسم 𝗚𝗣𝗧-𝟰𝗼
أعلنت شركة 𝗢𝗽𝗲𝗻𝗔𝗜 عن نموذج جديد للذكاء الاصطناعي أطلقوا عليه اسم 𝗚𝗣𝗧-𝟰𝗼

 

أعلنت شركة 𝗢𝗽𝗲𝗻𝗔𝗜 عن نموذج جديد للذكاء الاصطناعي أطلقوا عليه اسم 𝗚𝗣𝗧-𝟰𝗼 - حيث يرمز الحرف "𝗼" إلى "𝗼𝗺𝗻𝗶"، في إشارة إلى قدرة النموذج على التعامل مع النص والكلام والفيديو.
قالت 𝗠𝗶𝗿𝗮 𝗠𝘂𝗿𝗮𝘁𝗶، 𝗖𝗧𝗢 في 𝗢𝗽𝗲𝗻𝗔𝗜، إن 𝗚𝗣𝗧-𝟰𝗼 يوفر ذكاءً "على مستوى 𝗚𝗣𝗧-𝟰" ولكنه يعمل على تحسين قدرات 𝗚𝗣𝗧-𝟰 عبر طرائق ووسائط متعددة.
إن قدرات 𝗚𝗣𝗧-𝟰𝗼 تتعلق بالصوت والنص والرؤية". "وهذا مهم للغاية، لأننا ننظر إلى مستقبل التفاعل بيننا وبين الآلات."
لقد قدمت المنصة منذ فترة طويلة وضعًا صوتيًا يقوم بنسخ استجابات 𝗰𝗵𝗮𝘁𝗯𝗼𝘁 باستخدام نموذج تحويل النص إلى كلام، ولكن 𝗚𝗣𝗧-𝟰𝗼 يعزز ذلك، مما يسمح للمستخدمين بالتفاعل مع 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 بشكل أشبه بالمساعد.
إن النموذج يوفر استجابة "في الوقت الفعلي"، ويمكنه أيضًا التقاط الفروق الدقيقة في صوت المستخدم، مما يؤدي إلى توليد أصوات مختلفة" (بما في ذلك الغناء).
يعمل 𝗚𝗣𝗧-𝟰𝗼 أيضًا على ترقية قدرات رؤية 𝗖𝗵𝗮𝘁𝗚𝗣𝗧. من خلال صورة - أو شاشة سطح مكتب - يستطيع 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 الآن الإجابة بسرعة على الأسئلة ، بدءًا من موضوعات تتراوح بين "ما الذي يحدث في كود البرنامج هذا؟" إلى "ما نوع القميص الذي يرتديه هذا الشخص؟"
يعد 𝗚𝗣𝗧-𝟰𝗼 متعدد اللغات أيضًا، كما تدعي 𝗢𝗽𝗲𝗻𝗔𝗜، مع أداء محسّن في حوالي 𝟱𝟬 لغة.
يتوفر 𝗚𝗣𝗧-𝟰𝗼 في النسخة المجانية من 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 بدءًا من اليوم والمشتركين في 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 𝗣𝗹𝘂𝘀 يتمتعون بحدود رسائل "أعلى بمقدار 𝟱 مرات.
كما أعلنت 𝗢𝗽𝗲𝗻𝗔𝗜 عن إصدار سطح مكتب من 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 لنظام التشغيل 𝗺𝗮𝗰𝗢𝗦 وهو يتيح للمستخدمين طرح الأسئلة عبر اختصار لوحة المفاتيح أو تلقي الأسئلة وطرحها و مناقشة لقطات الشاشة.
سيتمكن مستخدمو 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 𝗣𝗹𝘂𝘀 من الوصول إلى التطبيق أولاً، بدءًا من اليوم، وسيصل إصدار 𝗪𝗶𝗻𝗱𝗼𝘄𝘀 في وقت لاحق من العام.
وكذلك أصبح متجر 𝗚𝗣𝗧 متاحًا الآن لمستخدمي النسخة المجانية من 𝗖𝗵𝗮𝘁𝗚𝗣𝗧. ويمكن للمستخدمين المجانيين الاستفادة من ميزات 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 التي كانت في السابق محمية بنظام حظر الاشتراك غير المدفوع، مثل إمكانية الذاكرة التي تسمح لـ 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 "بتذكر" تفضيلات التفاعلات المستقبلية، وتحميل الملفات والصور، والبحث في الويب عن إجابات للأسئلة في الوقت المناسب.

 

Comments