Cambios de fase
ChatGPT fue lanzado en noviembre de 2022, marcando el inicio de un cambio de fase en el que seguimos inmersos a día de hoy. Su lanzamiento fue, de todas todas, experimental. Las primeras versiones se caracterizaban por alucinaciones y fallos de todo tipo. A pesar de ello, la sacudida tecnológica fue tal que la adopción resultó masiva.
Inicialmente, las aplicaciones basadas en modelos de lenguaje reemplazaron progresivamente a los buscadores online y las consultas en Wikipedia. Seguidamente, comenzaron a refinarse para atacar de manera frontal a las profesiones white-collar.
Desde la clasificación y resumen de correos electrónicos hasta el apoyo a la planificación, los LLM como motor de sistemas agénticos atacan problemas cada vez más complejos, llegando a sustituir desde procesos manuales hasta software específico. A día de hoy, su avance representa un auténtico shock transversal a toda la industria del software.
Este shock está tomando un nombre propio: SaaSpocalypse. El término describe el colapso progresivo del modelo SaaS tradicional, en el cual aplicaciones verticales que cobraban licencias por resolver problemas concretos ven cómo esa misma funcionalidad puede ser replicada por un agente en cuestión de minutos. El software como producto empaquetado pierde sentido cuando el usuario puede generar su propia solución.
La pregunta que nos queda entonces es clara: ¿cómo se mantienen los negocios basados en software en la era de la IA agéntica?
Podemos encontrar un marco mental interesante estudiando el concepto del open-source y evaluando su traslado a este nuevo escenario.
El código abierto
El software open-source es aquel cuyo código fuente es accesible, modificable y redistribuible bajo licencias que garantizan esas libertades. Se caracteriza por la transparencia, la colaboración comunitaria y la interoperabilidad.
Sus principales beneficios orbitan en torno a tres propiedades. Es accesible: lo encontramos rápido, lo descargamos en segundos. Es integrable: accedemos al código, y si lo entendemos mínimamente lo adaptamos a nuestras necesidades, trabajando con estándares abiertos específicamente pensados para la interoperabilidad. Y es robusto: al ser revisado por la comunidad, se beneficia de la inteligencia colectiva, de miles de ojos depurando y mejorando el mismo sistema.
El software de código abierto ha tenido una influencia profunda en la informática. Sin ir más lejos, a día de hoy buena parte de internet corre sobre Linux, incluyendo la infraestructura que da soporte al despliegue masivo de la inteligencia artificial.
IA generativa y desarrollo de software
Los modelos de lenguaje permiten generar código por valor de meses en días. Esto no es magia. Los LLM, cualesquiera que sean, están entrenados con enormes volúmenes de datos de código procedentes de GitHub, Stack Overflow y repositorios públicos de todo tipo. Están entrenados, fundamentalmente, sobre código abierto o código simplemente disponible en internet.
Por ende, la disponibilidad de generar software se transforma. Sabiendo lo que uno imagina, lo que uno quiere está a unas pocas interacciones de distancia de materializarse en su sistema de archivos local. El código está ahí. Simplemente hay que acceder a él a través de la consulta pertinente. Y para aplicaciones habituales sobre problemas más o menos claros y conocidos, la consulta al LLM es fácil de articular.
Casi cualquier equipo promedio puede llegar a alcanzar trabajo de ingeniería de software de primer nivel en tiempo récord. En algunos casos, de manera cuasi inmediata. La propiedad intelectual, por tanto, pierde mucho valor.
Del mismo modo, la homogeneización entre la comunidad de ingenieros de software en el uso de herramientas de generación de código que cada vez más igualan o superan la capacidad del ser humano, fuerza una suerte de regresión en la cual se normaliza el output. A través de la IA, todos programamos parecido. Y los proyectos adquieren un estilo similar entre sí, influenciado por el software open-source, en un formato cada vez más instantáneo.
Resulta equivalente en esfuerzo el trabajar con un LLM para generar rápidamente una funcionalidad o microservicio e integrarlo, que encontrar la solución open-source, descargarla, entenderla e integrarla. Cada vez más, esto es equiparable.
El código generado por LLM es accesible e integrable. Y con los últimos avances por parte de Anthropic u OpenAI, cada vez más robusto. Presenta, además, limitaciones similares a las del open-source: el código es accesible, pero seguimos teniendo la necesidad de entenderlo y de mantenerlo, así como de integrarlo de la manera correcta.
En escenarios avanzados, seguimos enfrentándonos a un gran número de problemas no triviales en los que escribir el software constituye la parte menos relevante. El valor está en modelar el problema. O, simplemente, en entender qué es exactamente lo que debemos pedir.
Todo es open-source
Conceptualmente, ahora todo es open-source.
Y el valor del software open-source en un modelo de negocio no recae, ni recayó nunca, en la exclusividad. Esto es obvio. Recayó en la complejidad: el despliegue, la integración, el servicio personalizado. Empresas como Red Hat, Elastic, Confluent o HashiCorp siguen facturando y presentando casos de éxito, a pesar de liberar sus desarrollos. Se benefician de la comunidad y su valor recae en esas capacidades de consultoría, adaptación y soporte que ningún repositorio puede sustituir.
El paralelismo es directo. El software generado por IA puede ser conceptualmente gratuito o muy barato, pero sigue siendo necesario integrarlo, conocerlo, adaptarlo. El acceso al código no elimina la necesidad de criterio.
Por ende, las organizaciones que deseen sobrevivir y prosperar en este nuevo mundo deben entender que el acceso al software ha dejado de ser una ventaja competitiva. Liberado ese acceso, el valor recae en dos dimensiones.
La primera es el talento. La inteligencia humana. Buscar los problemas difíciles. Innovar en la propia tecnología de inteligencia artificial. Modelar problemas avanzados. Entender al usuario final. Disponer de un pensamiento transversal que ningún modelo puede replicar, porque requiere contexto, experiencia y voluntad.
La segunda es el control de la infraestructura y la capacidad de integración. En esta liga generalmente juegan los grandes. Controlando el centro de datos se controla gran parte del valor: la computación, la latencia, la soberanía del dato. Del mismo modo, controlando la integración multisistema se aporta un valor difícilmente replicable por un mero software generado bajo demanda.

Deja un comentario