Tecnología

Lo que OpenAI NO quería que supieras sobre GPT4 – (De los MoEs a Mixtral) | N5776

OpenAI ha intentado mantener en secreto durante todo el año qué hay detrás del modelo más potente de ChatGPT. En el vídeo de hoy os explicaré en qué consiste el funcionamiento de GPT-4 y su arquitectura de tipo MoE (Mixture-of-expert) que recientemente ha ganado mucha más importancia tras la salida del modelo open source Mixtral 8x7b, de la compañía Mistral AI.

Revisa la presentación completa aquí.

Deja una respuesta