MAI-1, así será la nueva IA de Microsoft que competirá con ChatGPT y Gemini

Microsoft prohibió, hace escasos días, a la policía de Estados Unidos utilizar la inteligencia artificial (IA) generativa de OpenAI para realizar reconocimientos faciales en tiempo real. El motivo de esta decisión vino a raíz de una actualización en el 'Código de Conducta de Azure OpenAI Service' para limitar el acceso a las herramientas de la compañía de Sam Altman, por lo tanto, cualquier organismo policial no podrá usar GPT-3, GPT-4 y GPT-4 Turbo con los modelos Vision y Codex, DALL-E 2, DALL-E 3 y Whisper.

No obstante, más allá de esta decisión, la compañía de Redmond sigue mejorando sus herramientas con IA para plantarle cara a Google y OpenAI, por consiguiente, según el diario The Information, Microsoft estaría desarrollando MAI-1, un modelo de lenguaje grande (LLM, por sus siglas) propio que competiría directamente con ChatGPT, Gemini y Claude.

Dicha tecnología está liderada por el nuevo director de Microsoft AI –Mustafá Sulaymán–, tendrá 500.000 millones de parámetros, podrá ajustarse durante el entrenamiento, heredará los datos de las innovaciones tech de Inflection AI para poder desarrollarse y podría resolver problemas específicos de Microsoft –aunque todavía no se ha determinado su objetivo exacto porque dependerá del rendimiento–.

Por otro lado, la agencia Reuters señala que MAI-1 será "mucho más grande" que los anteriores modelos más pequeños de código abierto que Microsoft ha entrenado anteriormente. Además, la compañía de Redmond ha invertido miles de millones de dólares en OpenAI y ha desplegado la tecnología del fabricante de ChatGPT en su paquete de software de productividad, lo que le ha permitido tomar la delantera en la carrera de la IA generativa.

Microsoft apuesta por un nuevo modelo de lenguaje pequeño: así es Phi-3 mini

A finales de abril, Microsoft presentó Phi-3 mini, un nuevo modelo de lenguaje pequeño que se ejecuta de forma nativa en teléfonos móviles de última generación y que ofrece un rendimiento similar a GPT-3.5 de OpenAI.

Dicha innovación posee un tamaño de 3.800 millones de parámetros, ocupa en torno a 1,8 GB de memoria, se puede cuantificar a 4 bits, se ejecuta de forma nativa y de forma completa offline logrando más de doce tokens por segundo, emplea una arquitectura del codificador de transformador, admite una longitud de texto de 4K, se basa en una estructura en bloque similar a la de Llama 2, permite un formato conversacional y está alineado con los valores de seguridad de Microsoft.

Y, respecto a su entrenamiento, Phi-3 mini está entrenado con 3,3 billones de tokens procedentes de conjuntos de datos "más grandes y más avanzados" que los utilizados en el modelo predecesor, Phi-2, que fue entrenado con 1,4 billones de tokens.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Zircon - This is a contributing Drupal Theme
Design by WeebPal.