OpenAI se quedó sin datos para entrenar su IA. Así que transcribió un millón de horas de YouTube para GPT-4
No solo ella: empresas como Google o Meta también están buscando soluciones para seguir entrenando sus modelos de IA
Fuente: Xataka
Los chatbots que nos maravillan son voraces consumidores de datos. Los creadores de estos modelos de IA lo saben y han usado todo tipo de recursos para entrenarlos, pero se están quedando sin recursos. Lo sabe muy bien OpenAI, que según una investigación de The New York Times tuvo que recurrir a un método de lo más llamativo para seguir entrenando su LLM GPT-4.Nos hemos quedado sin datos. A finales de 2021, revela el diario, los investigadores de OpenAI agotaron todas las reservas de textos en inglés de confianza que había en internet. Necesitaban más datos para seguir entrenándola y afinándola. Muchísimos más. ¿Cómo conseguirlos?Un millón de horas de ...