«جوجل تستقطب فريق Hume AI الرائد في تقنيات الذكاء الاصطناعي الصوتي»

«جوجل تستقطب فريق Hume AI الرائد في تقنيات الذكاء الاصطناعي الصوتي»

قررت جوجل تعزيز إمكانياتها الصوتية من خلال استقطاب فريق Hume AI لتحليل المشاعر الصوتية.



تهدف جوجل إلى تحسين نموذج Gemini ليشمل القدرات النفسية والانفعالية عبر الصوت.



تبحث شركات كبرى مثل OpenAI وMeta عن تطوير المساعدات الصوتية لتكون أكثر إنسانية.



الصوت يمثل واجهة المستقبل، حيث يُعتبر التفاعل عبر الصوت الأكثر طبيعية وفاعلية.



تركز الشركات على معالجة قضايا الخصوصية والانحياز لضمان ثقة المستخدمين في المساعدات الذكية.

لم يعد التفاعل مع الذكاء الاصطناعي يقتصر على الكتابة والضغط على الأزرار، بل تتجلى لحظة التواصل الجديدة حين نتحدث إلى جهاز ونتوقع أن يفهمنا ليس الكلمات فقط، بل النبرة والمزاج والتردد، هنا، اختارت جوجل اتخاذ خطوة جديدة عبر استقطاب الفريق القيادي لشركة Hume AI المتخصصة في الذكاء الصوتي العاطفي، في صفقة تعكس إعادة تنظيم أولويات الذكاء الاصطناعي.

جوجل وDeepMind تعززان رهانهما على الصوت

حسب تقرير TechCrunch، انضم الرئيس التنفيذي لشركة Hume AI، آلان كاوين، مع نحو سبعة من أبرز مهندسي الشركة إلى Google DeepMind ضمن اتفاقية ترخيص مرنة، والهدف المعلن هو تحسين قدرات الصوت في نموذج Gemini، خاصةً في فهم الحالة النفسية والانفعالية للمستخدم أثناء التحدث.

تبدو هذه الخطوة كاستقطاب ذكي بدون استحواذ تقليدي، حيث يتم جلب العقول والخبرات دون شراء الشركة كاملة، ما يقلل الاحتكاك التنظيمي ويسرع دمج الابتكار داخل العملاق التقني.

ما الذي يميز Hume AI فعلًا

السر الكامن وراء Hume AI ليس في جودة الصوت أو وضوحه، بل في قدرتها على تحليل المشاعر من نبرة المستخدم، نموذج الشركة يستخدم الذكاء العاطفي لقراءة الحالة النفسية من خلال السرعة، الحدة، التوقفات، وأيضًا التوتر غير المباشر في الصوت.

في عام 2024، قدمت الشركة ما سمته واجهة صوتية متعاطفة، يمكنها تعديل ردودها حسب شعور المستخدم، هذا النوع من تحليل الإشارات الدقيقة هو ما تسعى DeepMind لإدخاله في Gemini Live، خصوصًا مع توسع استخدام المساعدات الذكية في الحياة اليومية.

لماذا أصبح الصوت هو الواجهة المقبلة

تتفق صناعة الذكاء الاصطناعي على أن الشاشة ليست الخيار المثالي مستقبلًا، مع انتشار الأجهزة القابلة للارتداء، والنظارات الذكية، والسماعات، يصبح الصوت قناة التفاعل الأكثر طبيعية.

يرى مستثمرون وخبراء أن الصوت هو المدخل الوحيد المقبول للتقنيات التي ترافق الإنسان بشكل دائم، التحكم بدون استخدام اليدين، التفاعل السريع، والشعور بأن المساعد يفهمك، كلها عوامل تعيد تعريف تجربة الاستخدام.

سباق صامت بين عمالقة التقنية

لا تقتصر جهود جوجل وحدها على هذا الاتجاه، فـ OpenAI تخطط لإطلاق جهاز صوتي بالتعاون مع فريق جوني آيف، بينما تستثمر Meta بشكل واضح في تقنيات الصوت لتعزيز نظارات Ray-Ban الذكية، كل شركة تسعى لتقريب مساعدها وزيادة إنسانية التفاعل.

لكن التحدي الأكبر ليس في التقنية نفسها، بل في بناء الثقة، إذ عندما يصبح الصوت هو الواجهة، يصبح المساعد أقرب إلى صديق دائم، مما يثير تساؤلات حول الخصوصية، والانحياز، وكذلك حدود التأثير النفسي.

ما الذي تكشفه هذه الصفقة عن المرحلة القادمة

استقطاب فريق Hume AI يدل على تحول أعمق في طبيعة نماذج الذكاء الاصطناعي، لم يعد التركيز على الإجابة الصحيحة وحدها، بل أيضًا على التوقيت، والطريقة، والشعور المصاحب للإجابة، هذا الانتقال من العقل الحسابي إلى الوعي السياقي قد يكون الفارق الحقيقي بين مساعد ذكي، وكيان رقمي نفهمه ونرتاح له.

ختامًا، قد لا يتذكر المستخدمون أسماء النماذج أو تفاصيل الصفقات، لكنهم سيتذكرون الإحساس البسيط عندما يتحدثون، ويشعرون أن الطرف الآخر يستمع فعلاً، هنا، تبدأ المرحلة الجديدة للذكاء الاصطناعي.