OpenAI ha intentado mantener en secreto durante todo el año qué hay detrás del modelo más potente de ChatGPT. En el vídeo de hoy os explicaré en qué consiste el funcionamiento de GPT-4 y su arquitectura de tipo MoE (Mixture-of-expert) que recientemente ha ganado mucha más importancia tras la salida del modelo open source Mixtral 8x7b, de la compañía Mistral AI.
Tecnología
Lo que OpenAI NO quería que supieras sobre GPT4 – (De los MoEs a Mixtral) | N5776



