MAYO 2025

lunes, 26 de mayo de 2025

DE LA IA ENCUBIERTA A LA IA DISRUPTIVA

 


Por Sergio Sperat. Director de Estrategia del Conocimiento en ESTRATEGA

Desde hace 3 años que la plataforma ChatGPT® de la firma OpenAI tomó al mundo por sorpresa, y ahora hasta nos han aparecido íconos de IA en nuestras aplicaciones de chat (como el Meta IA dentro de WhatsApp), en las de escritorio (como el Office Copilot de Microsoft) o en los buscadores (como Google Gemini AI dentro del navegador). 

De repente, la IA ha entrado de manera subrepticia en muchas aplicaciones de nuestra vida cotidiana digital, sin que lo hayamos solicitado nunca de manera explícita, o con un simple check desapercibido al que casi ni le prestamos atención.

En términos de la integración a nuestras actividades laborales, también es esperable que veamos también cierto grado de integración de las aplicaciones de negocio con estos "motores de IA" que actúan como ayudantes o asistentes, también conocidos como "chatbots". Desde mi punto de vista, el problema de la IA encubierta (o subrepticia) es que carece del gobierno necesario para asegurar su uso correcto y por lo tanto, necesario para proteger uno de los activos estratégicos de la compañía: sus activos digitales.

Ciertamente, se dice que la IA generativa tiene el potencial de ser una fuerza disruptiva en toda la cadena de valor de una industria. Sin embargo, desde la óptica organizacional, los desafíos para integrar estas capacidades en la arquitectura de sistemas empresariales es un desafío descomunal. Analicemos entonces cuáles son los factores y desafíos que enfrentan las áreas de Sistemas para que la IA sea realmente un elemento diferenciador en la contribución de valor al negocio.

En primer lugar, las plataformas de IA requieren de una infraestructura tecnológica muy potente que sólo es posible contratar a grandes proveedores. Las tecnologías y herramientas necesarias para que un motor de IA pueda funcionar sólo está al alcance de los que proveen servicios en la nube, como Microsoft Azure, Amazon Web Services o Google Cloud.

¿Podría la empresa montar su propio Centro de Cómputos para IA? Hoy me animo a decir que no sólo es difícil, sino casi imposible, por las dimensiones del hardware disponible. Solamente en cuanto a capacidad de procesamiento, las placas NVIDIA® pueden llegar a costar más de 1 millón de USD cada una. Y si bien la aparición de DeepSeek® ha derrumbado en parte este mito, todavía implica un desafío tecnológico poder mantenerla actualizada en el tiempo, como lo fue en su momento la actualización constante de los Centros de Cómputo tradicionales.

La infraestructura no sólo es avanzada en sí misma, sino que requiere de un expertise para implementarlas, mantenerlas y administrarlas que pocas organizaciones suelen tener internamente.

 No solo se trata de dominar tal o cual sistema operativo o base de datos, sino que se suman cuestiones de seguridad distribuida y por capas, servidores propios o administrados, servicios administrados coexistentes con las aplicaciones y servicios propios, bases de datos no convencionales (como las vectoriales o documentales), repositorios de aplicaciones, espacios de prueba, validación y producción de fuentes que corren en distintos entornos y con diferentes requerimientos de configuración de librerías y ambientes de ejecución, pipelines de transferencia y transformación de información entre repositorios para soportar el desarrollo e implementación continuas (CD/CI), gestión de data lakes, etc.

Dentro de este expertise específico se agregan las plataformas de IA generativa, de las cuales ChatGPT® es tal vez el exponente más reconocido popularmente, pero existen otras plataformas disponibles como Gemini, Llama, AI21, Cohere, Anthropic o Mistral, por nombrar las más difundidas. Como es de esperar, siendo que la infraestructura es tan costosa y está tercerizada, los proveedores también cobran de manera diferente por el uso de la plataforma elegida. 

El costo de uso de las plataformas de IA es un factor más a tener en cuenta al momento de elegir. Pero hay otro factor muy importante también, que es el uso que se le piensa dar a la misma en los casos de negocio que la organización ha pensado para su despliegue.

Concretamente, ¿conviene implementar un modelo "pequeño" como ChatGPT 4-o Mini de OpenAI, o el caso de uso requiere de todo el poder multimodal de Claude 3 de Anthropic? La elección entonces no depende exclusivamente del costo de uso, sino de la aplicación que se desea implementar con dicha plataforma.

A la cuestión del expertise técnico para administrar toda la infraestructura en su complejidad exponencial hay que agregarle otro hecho fenomenal en estos años: la velocidad de los cambios. desde la versión 3 de ChatGPT, se ha lanzado a razón de una versión mayor por año. En el caso de Claude, la versión 1 salió en Abril/23, Claude 2 en Julio/23, Claude 3 Opus en Marzo/24, y Claude 3.5 Sonnet en Julio/24

Y cada uno de estos cambios implica técnicamente que la forma de acceder a la nueva plataforma es diferente a la anterior, haciendo que toda inversión en desarrollos tenga que ser actualizada para "mantenerse al día", sin considerar además que un cambio de versión suele incorporar nuevos comportamientos a los ya conocidos, pudiendo impactar de forma directa a lo que ya estaba funcionando con la versión previa. 

Salvo empresas enteramente digitales, cualquier organización comercial o industrial va a priorizar su operación "core" por sobre dedicar recursos costosísimos en el desarrollo interno de software de este tipo. Por eso tiene sentido económico que éste sea el foco de empresas especializadas en tales tecnologías y que las organizaciones comerciales industriales las subcontraten como proveedores estratégicos.

Dada las demandas recurrentes y constantes que tienen las áreas de TI para mantenerse al día con los proyectos internos de la organización, esta desmesurada velocidad con que las plataformas han evolucionado en tan corto plazo (y que se espera que continúe al menos durante 18-24 meses más), hace prácticamente imposible que el personal técnico de TI pueda estar al día para poder brindar un servicio de IA de calidad, predecible y estable, como ocurre con aplicaciones como el correo electrónico, el ERP o el CRM por ejemplo.

Y otra variable de gran impacto en la actualidad, es la excesiva escasez de personal técnico con el expertise requerido para dar soporte a estas tecnologías. Cuando hablamos de obra especializada de TI desde hace más de 10 años que el mercado laboral es el mundo entero, ya que todo puede resolverse de manera remota.

Y sigo: la infraestructura y la plataforma de IA son sólo las piedras fundamentales para desarrollar aplicaciones basadas en IA que sean de valor para el negocio. Aquí nuevamente aparecen otros dos desafíos adicionales: la proliferación de herramientas de desarrollo para resolver problemas específicos y las limitaciones técnicas que éstas imponen para abordarlos. 

Por ejemplo, la optimización de una red de distribución de mercadería utilizando la capacidad disponible del ecosistema de servicios de transporte en un determinado momento requiere de un conjunto de algoritmos especializados que son muy diferentes a los que requieren las áreas de marketing para estimar la reacción del mercado consumidor frente a una hipotética campaña para impulsar un artículo en un período dado. La elección de los algoritmos y métodos apropiados para uno y otro también requieren de capacidades y conocimientos técnicos específicos, propios de los científicos de datos, que no todas las organizaciones tienen a disposición entre los miembros de las áreas de TI.

Dados los algoritmos apropiados, el insumo básico para que los modelos de IA funcionen como se espera son los datos de la empresa. Si los datos utilizados para entrenar los modelos no son correctos, los resultados van a ser muy poco confiables, restándole credibilidad al esfuerzo e inversión hecha en estas aplicaciones.

Y por último están los usuarios de estas aplicaciones. Sabemos que es utópico pensar que por el solo hecho de poner en producción una aplicación será adoptada inmediata y alegremente. Más bien ocurre lo contrario: el despliegue de cualquier aplicación de negocio requiere no solo cuestiones de formación y conocimientos técnicos puntuales, sino que hay que preparar el terreno para el cambio que la nueva aplicación tiene en el día a día en las operaciones del negocio.

Como se puede repasar, para llegar a una IA disruptiva para el negocio hay que recorrer un camino sin prisa pero sin pausa, donde hay diferentes carriles paralelos: infraestructura, ambientes, modelos, algoritmos, datos, seguridad y personas. Por estos motivos vislumbro que todavía queda por transcurrir bastante tiempo hasta que las organizaciones tengan la capacidad para contar con estas aplicaciones in-house como se piensa. En el interín, es bastante probable que las empresas deban apoyarse en vendors con plataformas apropiadas para resolver sus casos de uso más rápidamente, y que además sean estables y confiables cumpliendo con los requisitos mencionados.


Publicado en El Cronista el 24/5/25 y en este espacio con expresa autorización del autor.

No hay comentarios: