El Falcon Mamba 7B es el State Space Language Model (SSLM) n.º 1 en rendimiento global de código abierto, según la verificación independiente de Hugging Face.
Los SSLM requieren poca memoria y no necesitan memoria adicional para generar bloques de texto largos y arbitrarios.
El Falcon Mamba 7B también supera a los modelos tradicionales de arquitectura de transformadores, como Llama 3.1 8B de Meta y 7B de Mistral.
El nuevo modelo plasma la innovación y el enfoque pionero de Abu Dabi en la investigación y el desarrollo de la IA.
ABU DABI, Emiratos Árabes Unidos–(BUSINESS WIRE)–El Instituto de innovación tecnológica (Technology Innovation Institute, TII), centro de investigación científica líder en el mundo y pilar de investigación aplicada del Advanced Technology Research Council (ATRC) de Abu Dabi, ha lanzado un nuevo modelo lingüístico de gran tamaño de su serie Falcon, el Falcon Mamba 7B. El nuevo modelo es el State Space Language Model (SSLM) n.º 1 del mundo en rendimiento global de código abierto, según la verificación independiente realizada por Hugging Face.
Al ser el primer SSLM para Falcon, se diferencia de los modelos Falcon anteriores, que utilizan una arquitectura basada en transformadores. Este nuevo modelo Falcon Mamba 7B es un ejemplo más de la investigación pionera que lleva a cabo el instituto y de las herramientas y productos innovadores que pone a disposición de la comunidad en formato de código abierto.
Su excelencia Faisal Al Bannai, secretario general de la ATRC y asesor del presidente de los EAU para Asuntos de Investigación Estratégica y Tecnología Avanzada, declaró: “El Falcon Mamba 7B supone el cuarto modelo de IA consecutivo del TII en ocupar los primeros puestos. Un orgullo que refuerza la posición de Abu Dabi como centro mundial de investigación y desarrollo de IA. Este logro pone de relieve el compromiso inquebrantable de los EAU con la innovación”.
En lo que respecta a los modelos con arquitectura de transformador, Falcon Mamba 7B supera a Llama 3.1 8B y Llama 3 8B de Meta, y a 7B de Mistral en las nuevas pruebas de Hugging Face. En cuanto a los demás SSLM, Falcon Mamba 7B supera a todos los modelos de código abierto en las pruebas antiguas y será el primer modelo en la nueva clasificación de pruebas más exigentes de Hugging Face.
El Dr. Najwa Aaraj, director ejecutivo del TII, señaló: “El Technology Innovation Institute sigue superando los límites de la tecnología con su serie Falcon de modelos de IA. El Falcon Mamba 7B representa un auténtico trabajo pionero y allana el camino para el futuro de la innovación de IA que potenciará las capacidades humanas y mejorarán la vida de todos”.
Los modelos de State Space son extremadamente eficaces cuando se trata de comprender situaciones complejas que evolucionan con el tiempo, como un libro entero. Esto se debe a que los SSLM no requieren memoria adicional para digerir información tan extensa.
Por el contrario, los modelos basados en transformadores son muy eficaces a la hora de recordar y utilizar la información que han procesado anteriormente en una secuencia. Esto los hace muy buenos en tareas como la generación de contenidos; sin embargo, como comparan cada palabra con todas las demás, se requiere una potencia de cálculo bastante importante.
Los SSLM pueden encontrar aplicaciones en diversos campos, como la estimación, la previsión y las tareas de control. Al igual que los modelos de arquitectura de transformadores, también destacan en tareas de Procesamiento del Lenguaje Natural y pueden aplicarse a la traducción automática, el resumen de textos, la visión por computadora y el procesamiento de audio.
El Dr. Hakim Hacid, investigador jefe en funciones de la Unidad Transversal de Inteligencia Artificial del TII, comentó: “Al presentar el Falcon Mamba 7B, me enorgullece el ecosistema de colaboración del TII que ha alimentado su desarrollo. Este lanzamiento representa un importante paso adelante, que inspira nuevas perspectivas e impulsa aún más la búsqueda de sistemas inteligentes. En el TII, superamos los límites tanto de los modelos SSLM como de los transformadores para impulsar una mayor innovación en la IA generativa”.
Los LLM Falcon se han descargado más de 45 millones de veces, lo que demuestra el éxito extraordinario que tienen estos modelos. Falcon Mamba 7B se publicará bajo la licencia Falcon License 2.0 del TII, la licencia de software permisiva basada en Apache 2.0 que incluye una política de uso aceptable que promueve el uso responsable de la IA. Para obtener más información sobre el nuevo modelo, visite FalconLLM.TII.ae.
*Fuente: AETOSWire
El texto original en el idioma fuente de este comunicado es la versión oficial autorizada. Las traducciones solo se suministran como adaptación y deben cotejarse con el texto en el idioma fuente, que es la única versión del texto que tendrá un efecto legal. Contacts
Jennifer Dewan, Directora sénior de Comunicación
Jennifer.dewan@tii.ae