Novedades

Google lanza modelo de traducción Gemma con capacidades multilingües y multimodales

Google lanza modelo de traducción Gemma con capacidades multilingües y multimodales

Google ha lanzado un nuevo modelo de traducción llamado Gemma, que ofrece traducción automática de alta calidad en 55 idiomas y puede ejecutarse en hardware cotidiano. El modelo viene en tres tamaños diferentes (4, 12 y 27 mil millones de parámetros) y cuenta con capacidades multimodales, lo que le permite extraer y traducir texto directamente de imágenes.

Traducción automática Modelo de lenguaje Multilingüismo Multimodalidad Google
La compañía china Zhipu AI entrena un modelo de generación de imagen con tecnología doméstica

La compañía china Zhipu AI entrena un modelo de generación de imagen con tecnología doméstica

Zhipu AI lanzó un modelo de generación de imagen llamado GLM, entrenado con la pila de chips doméstica de Huawei, sin utilizar semiconductores occidentales. Este logro podría tener impactos significativos en el desarrollo de la IA a nivel mundial.

Inteligencia Artificial Modelo de generación de imagen Tecnología doméstica GLM Huawei Entrenamiento de IA
Investigadores advierten sobre evolución de ataques a modelos de lenguaje

Investigadores advierten sobre evolución de ataques a modelos de lenguaje

Expertos en seguridad han identificado que los ataques a modelos de lenguaje han evolucionado de simples inyecciones rápidas a campañas de malware en múltiples pasos, denominadas 'promptware', que pueden explotar permisos y provocar daños significativos.

modelos de lenguaje ataques de malware promptware inyecciones rápidas seguridad informática evolución de amenazas
Investigadores descubren limitaciones en modelos de lenguaje multimodal

Investigadores descubren limitaciones en modelos de lenguaje multimodal

Un estudio reciente revela que los modelos de lenguaje multimodal de estado de arte fallan catastróficamente en tareas visuales básicas, como rastrear objetos o comprender la profundidad, a pesar de tener un alto rendimiento en tareas complejas de lenguaje.

Modelos de lenguaje Inteligencia artificial Limitaciones Tareas visuales Investigación
Investigadores crean conjunto de datos para decodificar patrones de innovación en IA

Investigadores crean conjunto de datos para decodificar patrones de innovación en IA

Un equipo de investigadores ha desarrollado Sci Reasoning, un conjunto de datos que busca capturar los patrones intelectuales detrás de los avances en inteligencia artificial. El conjunto de datos analiza documentos de conferencias de alto nivel y encuentra que las innovaciones más exitosas suelen combinar varios patrones de pensamiento, como el cambio de diseño basado en la brecha y el cambio de representación.

inteligencia artificial conjuntos de datos patrones de innovación investigación en IA análisis de documentos
Investigadores de Alibaba desarrollan método para mejorar la calidad de las críticas en modelos de lenguaje

Investigadores de Alibaba desarrollan método para mejorar la calidad de las críticas en modelos de lenguaje

El equipo del Tongyi Lab en Alibaba Group presentó un enfoque llamado RLVR, que utiliza retroalimentación humana en lenguaje natural para mejorar la calidad de las críticas en modelos de recompensa generativos. Este método supera a los modelos tradicionales entrenados solo con resultados binarios y produce críticas más precisas y útiles.

Modelos de lenguaje Inteligencia artificial Aprendizaje automático Calidad de críticas Retroalimentación humana
Avances en Robótica: Modelo de Acción de Lenguaje de Visión más rápido y eficiente

Avances en Robótica: Modelo de Acción de Lenguaje de Visión más rápido y eficiente

Investigadores presentan Layton Spadio Temporal Chain of Thought for Robotics Vision Language Action Model, un modelo que mejora la velocidad y eficiencia en tareas de manipulación robótica.

Robótica Modelo de lenguaje Visión artificial Eficiencia Manipulación robótica
Soprano: modelo de habla con 80 millones de parámetros que rompe la barrera entre calidad y velocidad

Soprano: modelo de habla con 80 millones de parámetros que rompe la barrera entre calidad y velocidad

Soprano es un sistema de habla que logra generar habla humana a una velocidad hasta 2000 veces más rápida que el tiempo real en una GPU o 20 veces más rápido en una CPU, con un modelo compacto de 80 millones de parámetros que se puede ejecutar en un portátil.

modelo de habla inteligencia artificial procesamiento de lenguaje generación de voz velocidad de procesamiento GPU
Investigadores presentan Relay LLM, un sistema de razonamiento eficiente a través de decodificación colaborativa

Investigadores presentan Relay LLM, un sistema de razonamiento eficiente a través de decodificación colaborativa

Científicos han desarrollado Relay LLM, un sistema que combina modelos pequeños y grandes para mejorar la eficiencia y precisión en tareas de razonamiento. El sistema utiliza una estrategia de decodificación colaborativa que reduce el costo en un 98,2% en comparación con métodos tradicionales.

Razonamiento eficiente Decodificación colaborativa Modelos de lenguaje Eficiencia energética Inteligencia artificial Aprendizaje automático
Investigadores desarrollan Think RL Edit, un enfoque de aprendizaje de refuerzo para la edición de imágenes centrada en el razonamiento

Investigadores desarrollan Think RL Edit, un enfoque de aprendizaje de refuerzo para la edición de imágenes centrada en el razonamiento

Un equipo de la Universidad de Zijieng en Bite Dance presenta Think RL Edit, un método que aborda las limitaciones de los modelos de generación de imágenes actuales en tareas que requieren razonamiento semántico sofisticado. Think RL Edit utiliza planificación de cadena de pensamiento y evaluación de lista de verificación binaria para mejorar la precisión y la interpretabilidad en la edición de imágenes.

aprendizaje de refuerzo edición de imágenes razonamiento semántico planificación de cadena de pensamiento inteligencia artificial
Investigadores presentan Enigram, un módulo para mejorar la eficiencia en modelos de lenguaje grandes

Investigadores presentan Enigram, un módulo para mejorar la eficiencia en modelos de lenguaje grandes

Un equipo de investigadores de la Universidad de Peaking y Deep C.K.I. ha desarrollado Enigram, un módulo que mejora la eficiencia en modelos de lenguaje grandes al dividir la capacidad entre MoE y Enigram, logrando ganancias de rendimiento significativas en tareas de conocimiento y razonamiento.

Modelos de lenguaje Eficiencia computacional Investigación en IA Módulos de aprendizaje Razonamiento automático
Expertos en Google destacan la crisis de memoria en la inferencia de modelos de lenguaje

Expertos en Google destacan la crisis de memoria en la inferencia de modelos de lenguaje

Investigadores de Google señalan que la limitación en la capacidad de memoria, ancho de banda y latencia de interconexión está obstaculizando el desarrollo de modelos de lenguaje, en lugar de la potencia de computación cruda.