Apple adquirió Q.ai en un acuerdo valorado en alrededor de 2 mil millones de dólares. Si bien todavía hay mucho que no sabemos, algunos de los detalles que rodean el trabajo de Q.ai me entusiasman mucho sobre el futuro de las ofertas de IA y Siri de Apple.
La última adquisición de Apple, Q.ai, se especializa en comprender la entrada de voz “silenciosa”

Apple adquiere empresas todo el tiempo, pero es muy raro que una empresa realice una compra llamativa y costosa como Q.ai.
El precio de compra reportado de 2 mil millones de dólares convierte a Q.ai en la segunda adquisición más grande en la historia de Apple. Está sólo por detrás de la adquisición de Beats por 3.000 millones de dólares hace más de una década.
Sin embargo, a pesar del elevado precio, hay mucho sobre el trabajo de Q.ai que está envuelto en un velo de misterio.
como 9to5Mac El editor en jefe Chance Miller escribe que la compañía ha “creado tecnología de aprendizaje automático para audio y entrada de voz ‘silenciosa'”.
Su sitio web tiene el lema: “En un mundo lleno de ruido, creamos un nuevo tipo de silencio”.
Sitio de tecnología israelí tiempo friki Profundicé en los detalles de la patente para descubrir el trabajo de Q.ai. Aquí está la traducción:
Según las solicitudes de patente, la compañía parece estar trabajando en leer lo que se dice, no usando la voz, sino usando sensores ópticos que detectan los movimientos de los músculos faciales y la piel para traducirlos en palabras u órdenes. Algunas de las patentes muestran el uso de unos auriculares que también examinan la mejilla y la mandíbula del usuario y aparentemente le permitirán hablar con Siri, el asistente de voz de Apple, utilizando únicamente movimientos de los labios.
Se espera que esta tecnología se integre con gafas y/o auriculares inteligentes como los AirPods.
Y si estos primeros informes son precisos, es posible que Apple esté a punto de resolver mi mayor problema de IA.
Por qué la adquisición de Q.ai podría ser enorme para AI y Siri

Como millones de personas en todo el mundo, descubrí que el uso de chatbots de IA ha aumentado significativamente en los últimos años.
Cuando tengo una pregunta sobre algo, rápidamente voy a ChatGPT y/o Google Gemini, entre otros.
Todos los chatbots basados en LLM tienen sus problemas, incluso a veces dan información incorrecta. Pero en su mayor parte, creo que son extremadamente útiles para ahorrar tiempo.
Sin embargo, cuando uso estos chatbots de IA, casi nunca interactúo con mi voz.
A menudo estoy rodeado de otras personas, ya sea mi familia en casa o extraños en la calle o en un café donde trabajo.
Como resultado, siempre ingreso mis solicitudes de IA. Pero usar el teclado del sistema iOS a veces puede resultar un poco incómodo y ralentizarme. Sería mucho más rápido y fácil expresar mis consultas si no fuera por la desconexión social.
Pero si una versión futura de Siri puede comprender movimientos faciales y susurros apenas audibles, desbloqueará un mundo completamente nuevo de posibilidades de IA.

Ya sea que esté en casa o fuera, podré hablar con Siri casi en silencio y hacer que me entienda. No es necesario sacar mi iPhone primero. No es necesario ingresar una pregunta.
Puedo utilizar la ayuda de la IA cuando la necesito, mientras me mantengo involucrado con el mundo que me rodea y sin convertirme en “esa persona” que habla en voz alta.
Hay muchos signos de interrogación sobre cómo podría funcionar esto realmente. Supongo que se incluirán AirPods con cámaras y/o Apple Glasses.
Si el futuro de la informática implica los siempre presentes chatbots de IA, entonces la tecnología de Q.ai podría ser una parte clave de ello.
¿Cómo interactúas principalmente con los chatbots de IA hoy en día? ¿Le parece atractiva la tecnología de Q.ai? Háganos saber en los comentarios.
Los mejores accesorios para iPhone


FTC: utilizamos enlaces de afiliados automáticos que generan ingresos. más.














