Future On-Devis para teléfonos inteligentes de AI. O hacer el proceso de IA tanto como sea posible. ¿Por qué? De acuerdo, no necesitas ninguna conexión a Internet para hacer el trabajo. Esto es para resolver un chatboat, errores de prueba y gramaticales, para hacer una breve investigación, editar imagen o explicar el mundo que lo rodea a través de la cámara.
En segundo lugar, ninguno de ustedes tiene datos personales para dejar el dispositivo y lo procesó a un servidor remoto. Y tercero, está a punto de ser más rápido. Cuanto más pequeño sea el modelo, más rápido puede producir los resultados. Este es algún tiempo y la situación de adopción. Un modelo de IA ligero se limita a su capacidad.
Un modelo de IA grande como Gemi o Chatzpt puede producir texto, imágenes, audio e incluso videos. Estos son modelos grandes, y sus chips personalizados requieren una tonelada de potencia de procesamiento. En resumen, necesita que suceda una conexión a Internet. Sin embargo, se hace algo grandioso y proviene de Google.
¿Qué es esta aplicación AI?
Hace unos meses, la compañía presentó una aplicación llamada Google Ai Edge Gallery. Después de un tiempo, finalmente ha llegado a Play Store. Idealmente, esta es una aplicación para los desarrolladores que intentan crear experiencias de IA en sus aplicaciones, pero puede probarla sin perder su discreción.
Piense en ello como un mercado o tienda. Pero en lugar de buscar aplicaciones, puede elegir modelos AI para ejecutar en su teléfono. Si compra un teléfono Android hoy, como Pixel 10 Pro, todas las funciones de IA están alimentadas por Gemini. Puede descargar aplicaciones como chatzpt o clode por separado, pero todos necesitan una conexión a Internet y enviarlas a sus servidores de datos.

Google Ai Edge Gallery, especialmente los modelos de IA, está hecha para salir sin conexión. Entonces, si desea comprender una imagen o acortar un informe largo, puede desconectarse todo. Y aquí la mejor parte. Puede completarlo utilizando cualquier modelo de IA de su elección sin instalar una aplicación dedicada para ello.
En resumen, esta aplicación es completamente gratuita y una tienda de parada para ejecutar experiencia de IA sin conexión a Internet. Ahora, ¿por qué te gustaría hacerlo? Bien, puedo pensar en algunas situaciones.
¿Cómo es esta aplicación efectiva?

Supongamos que se muda a su límite de datos celulares, se encuentre en cualquier lugar limitado en una conexión a Internet, o simplemente no quiere comer informes confidenciales sobre una IA en línea. Tal vez desee una IA especial que solo funcione un trabajo específico, como convertir un archivo PDF en un solo golpe con puntos de bala. O encontró una IA para alimentar imágenes y escribir elementos académicos basados en ellas.
Solo puede ir a la Galería Google Ai Edge Edge para todas estas situaciones y muchas más, ejecutar su modelo de IA favorito y completar el personal. En este punto, todos los modelos “consistentes” que necesita se pueden descargar de la biblioteca de la comunidad Huggingfes Lattert.

Aquí, encontrará algunos modelos AI bastante poderosos desarrollados por Google en la serie Gemma. Traen energía multimodal, lo que significa que pueden manejar el texto, las imágenes y las generaciones de audio. Puede experimentar con HowVever, otros modelos de IA, como Dipsec, SmlValom, Phi -4 Mini y Mater Lama de Microsoft.
Ahora, déjame darme una breve descripción técnica. Todos estos modelos de IA disponibles para la Galería Google Ai Edge Edge se conocen como basura para el tiempo de ejecución de alto rendimiento, que están especialmente hechos para funciones de IA en división. Al igual que los modelos de IA mencionados anteriormente, la basura también es un ruptura de código abierto para los modelos de idiomas grandes (LLM).

Si es bien conocido con TensorFlow o Pitorech, incluso puede importar cualquier modelo de IA “compacto” apropiado almacenado en su PC. Pero en primer lugar debe tener archivos .litertlm o. La tarea debe convertirse en el formato de archivo. Una vez allí, todo lo que tiene que hacer es presionar el paquete a la carpeta “Descargar” del teléfono e importarlo a la Galería Google Ai Edge con algunos toques.
¿Cómo es la experiencia?
Jugué principalmente con el modelo Gemma 3n, ya que es el más versátil del grupo. Con la excepción de los chats, puede procesar las imágenes y crear audio. Si se conduce un modelo a la CPU o GPU, puede seleccionar, ajustar la muestra y la temperatura.

El segundo, en términos simples, es una medida de cuán diversas respuestas de IA pueden ser. La temperatura más baja produce una salida más estimada, precisa y algo repetida. Las temperaturas más altas producen principalmente respuestas correctas, pero con un alto potencial para entradas y errores creativos adicionales.
Ahora, no tienes que jugar demasiado con estos campos. Simplemente verifique qué tan bien se ejecuta la CPU o GPU en el caso de la tasa de respuesta y manténgala en consecuencia. Probé unos nueve modelos y probé y mezclé en la tickstay.

Comencemos con la diferencia. Compartí una foto de mi gato y pedí identificar las especies de Jemini. Lo hizo en tres segundos. Cuando se empujó la misma consulta antes de Jemma 3n, tardó 11 segundos. La respuesta fue correcta, pero algo más pequeña. Si prefiere respuestas de punto, incluso puede preferir este enfoque. En ocasiones, puede ejecutar con Córesis multimodelo, especialmente en errores, por lo que desea cambiar el acelerador (CPU y GPU) y ver si acelera los sujetos.
Del mismo modo, el procesamiento de texto puede ser más lento. Cuando presioné un artículo sobre 900 palabras y le pregunté al modelo Alibaba Queen 2.5 como un punto de bala, tardó unos 20 segundos en comenzar su propio tiempo dulce para comenzar. El Phi -4 Mini de Microsoft fue notablemente más rápido en el trabajo, pero me gustó el formato reflexivo de más Queen 2.5.

El modelo Jamema 3 N-E2B fue el más rápido en la tarea y también proporcionó la respuesta de mayor calidad en menos de ocho segundos. La CPU Jemma -3 N -E4B más poderosa pudo volver a formar la melodía del mismo artículo en unos siete segundos en aproximadamente siete segundos.
La transcripción de audio, aunque limitada a clips de 30 segundos, es simplemente excelente. El modelo JEMMA 3 N-I2B de Google no ha cometido un error y ha cometido un gran trabajo al resumir el clip de audio de transcripción. Lo que sucedió en menos de 10 segundos.

Todos los modelos no funcionan bien con la aceleración de GPU, por lo que debe conducirlos desde la CPU. Jemma estuvo atrapada en el procesamiento durante unos minutos en 3-1b. La aplicación solicitante se bloquea para cambiar el formato, especialmente con Queen y Phi -4 Mini. En positivamente, el Phi -4 Mini fue casi tan rápido como Jema en el formato del artículo especificado mientras se ejecutaba en la CPU.
Dale un imbécil en el futuro
Ahora, esta aplicación no se ejecutará en todos los teléfonos. Al menos, requiere un procesador con una NPU fuerte o un chip de acelerador AI, y probablemente 8 GB o más RAM. Invisé mi prueba en Google Pixel 10 Pro y no lo conseguí toStyy. Además, si desea ejecutar modelos AI que actualmente no están disponibles en la galería de basura, necesitará algunos conocimientos técnicos.

En general, la aplicación AI Edge Edge de Google no es un reemplazo para el Jemi o cualquier otra aplicación Chattbot conectada a Internet en su teléfono. Al menos todavía no. Pero esta es una señal de las cosas brillantes que vienen. No es necesario mirar la aplicación HoggingNap, que está completamente fuera de línea en un modelo de código abierto, pero permite la inteligencia visual en el iPhone.
Dado que los procesadores móviles se han vuelto cada vez más amigables con la IA a nivel de hardware y favorecemos más modelos de IA por trabajo en división, aplicaciones como Google AI Gallery en realidad pueden actuar como un centro de trabajo de IA útil. Otro centro privado, que se ejecuta completamente en línea y no cobra ninguna tarifa durante su tiempo.