Desarrolladores critican las limitaciones de GPT-5 en generación de código
El nuevo modelo de OpenAI destaca en razonamiento técnico pero falla en precisión. Evaluaciones independientes muestran que su precisión es un 27% frente al 51% de Claude Opus. Su bajo costo es su principal ventaja, según ingenieros consultados.
«Barato pero no preciso»
GPT-5, lanzado la semana pasada como «colaborador de codificación», genera críticas por su redundancia en líneas de código y resultados inferiores a competidores como Claude. Sayash Kapoor, investigador de Princeton, confirma que pruebas estándar cuestan $30 con GPT-5 frente a $400 con Opus, pero su precisión es casi la mitad.
Experiencias dispares
Algunos desarrolladores, como Jenny Wang, elogian su capacidad para tareas complejas en un solo intento, aunque admite que «alucinó URLs». Otros, como el fundador de Doist, lo tildan de «decepcionante», comparándolo con modelos obsoletos. OpenAI defiende su enfoque en «tareas del mundo real» y destaca su versión «thinking» como la más precisa internamente.
Cuestionamientos metodológicos
La firma SemiAnalysis acusó a OpenAI de usar solo 477 de 500 pruebas estándar en sus benchmarks. La compañía argumenta que ese subconjunto está validado en su infraestructura. Kapoor sugiere que OpenAI priorizó «un equilibrio entre coste y expectativas» sobre romper récords.
De la revolución a la evolución incremental
Tras el impacto inicial de ChatGPT en 2022, los nuevos modelos como GPT-5 mejoran en subtareas específicas (razonamiento técnico, planificación), pero ya no sorprenden con saltos cualitativos. Claude Sonnet 3.5 y Gemini de Google lideran en generación y revisión de código, respectivamente.
Un modelo para (casi) todos
GPT-5 consolida su nicho como opción económica para tareas no críticas, aunque empresas como Notion reportan un 15% más de eficiencia en trabajos complejos. Su verdadero impacto se medirá en cómo los desarrolladores adaptan sus flujos de trabajo a sus fortalezas y limitaciones.