Por Sergio Sperat. Director de Estrategia del Conocimiento en ESTRATEGA
Desde hace 3 años que la plataforma ChatGPT® de la
firma OpenAI tomó al mundo por sorpresa, y ahora hasta nos han
aparecido íconos de IA en nuestras aplicaciones de chat (como el Meta IA dentro
de WhatsApp), en las de escritorio (como el Office Copilot de
Microsoft) o en los buscadores (como Google Gemini AI dentro
del navegador).
De repente, la IA ha entrado de manera subrepticia en
muchas aplicaciones de nuestra vida cotidiana digital, sin que lo hayamos
solicitado nunca de manera explícita, o con un simple check
desapercibido al que casi ni le prestamos atención.
En términos de la integración a nuestras actividades
laborales, también es esperable que veamos también cierto grado de integración
de las aplicaciones de negocio con estos "motores de IA" que
actúan como ayudantes o asistentes, también conocidos como "chatbots".
Desde mi punto de vista, el problema de la IA encubierta (o subrepticia) es que
carece del gobierno necesario para asegurar su uso correcto y por lo tanto,
necesario para proteger uno de los activos estratégicos de la compañía: sus
activos digitales.
Ciertamente, se dice que la IA generativa tiene el potencial de ser una fuerza disruptiva en toda la cadena de
valor de una industria. Sin embargo, desde la óptica organizacional, los
desafíos para integrar estas capacidades en la arquitectura de sistemas
empresariales es un desafío descomunal. Analicemos entonces cuáles son los
factores y desafíos que enfrentan las áreas de Sistemas para que la IA
sea realmente un elemento diferenciador en la contribución de
valor al negocio.
En primer lugar, las plataformas de IA requieren de
una infraestructura tecnológica muy potente que sólo es posible contratar a
grandes proveedores. Las tecnologías y herramientas necesarias para que un
motor de IA pueda funcionar sólo está al alcance de los que proveen servicios
en la nube, como Microsoft Azure, Amazon Web Services o Google Cloud.
¿Podría la empresa montar su propio Centro de Cómputos
para IA? Hoy me animo a decir que no sólo es difícil, sino casi imposible, por
las dimensiones del hardware disponible. Solamente en cuanto a capacidad de
procesamiento, las placas NVIDIA® pueden llegar a costar más
de 1 millón de USD cada una. Y si bien la aparición de DeepSeek® ha
derrumbado en parte este mito, todavía implica un desafío tecnológico poder
mantenerla actualizada en el tiempo, como lo fue en su momento la actualización
constante de los Centros de Cómputo tradicionales.
La infraestructura no sólo es avanzada en sí misma,
sino que requiere de un expertise para implementarlas, mantenerlas y
administrarlas que pocas organizaciones suelen tener internamente.
No solo se trata de dominar tal o cual sistema
operativo o base de datos, sino que se suman cuestiones de seguridad
distribuida y por capas, servidores propios o administrados, servicios
administrados coexistentes con las aplicaciones y servicios propios, bases
de datos no convencionales (como las vectoriales o documentales),
repositorios de aplicaciones, espacios de prueba, validación y producción de
fuentes que corren en distintos entornos y con diferentes requerimientos de
configuración de librerías y ambientes de ejecución, pipelines de
transferencia y transformación de información entre repositorios para
soportar el desarrollo e implementación continuas (CD/CI), gestión de data
lakes, etc.
Dentro de este expertise específico se agregan las
plataformas de IA generativa, de las cuales ChatGPT® es tal vez el exponente
más reconocido popularmente, pero existen otras plataformas disponibles como
Gemini, Llama, AI21, Cohere, Anthropic o Mistral, por nombrar las más
difundidas. Como es de esperar, siendo que la infraestructura es tan costosa y
está tercerizada, los proveedores también cobran de manera diferente por el uso
de la plataforma elegida.
El costo de uso de las plataformas de IA es
un factor más a tener en cuenta al momento de elegir. Pero hay otro factor muy
importante también, que es el uso que se le piensa dar a la misma en los casos
de negocio que la organización ha pensado para su despliegue.
Concretamente, ¿conviene implementar un modelo
"pequeño" como ChatGPT 4-o Mini de OpenAI, o el caso de uso requiere
de todo el poder multimodal de Claude 3 de Anthropic? La elección
entonces no depende exclusivamente del costo de uso, sino de la aplicación que
se desea implementar con dicha plataforma.
A la cuestión del expertise técnico para administrar
toda la infraestructura en su complejidad exponencial hay que agregarle otro
hecho fenomenal en estos años: la velocidad de los cambios. desde la versión 3
de ChatGPT, se ha lanzado a razón de una versión mayor por año. En el caso de
Claude, la versión 1 salió en Abril/23, Claude 2 en Julio/23, Claude
3 Opus en Marzo/24, y Claude 3.5 Sonnet en Julio/24.
Y cada uno de estos cambios implica técnicamente que
la forma de acceder a la nueva plataforma es diferente a la anterior, haciendo
que toda inversión en desarrollos tenga que ser actualizada para "mantenerse
al día", sin considerar además que un cambio de versión suele
incorporar nuevos comportamientos a los ya conocidos, pudiendo impactar de
forma directa a lo que ya estaba funcionando con la versión previa.
Salvo empresas enteramente digitales, cualquier
organización comercial o industrial va a priorizar su operación
"core" por sobre dedicar recursos costosísimos en el
desarrollo interno de software de este tipo. Por eso tiene sentido económico
que éste sea el foco de empresas especializadas en tales tecnologías y que las
organizaciones comerciales industriales las subcontraten como proveedores
estratégicos.
Dada las demandas recurrentes y constantes que tienen
las áreas de TI para mantenerse al día con los proyectos internos de la
organización, esta desmesurada velocidad con que las plataformas han
evolucionado en tan corto plazo (y que se espera que continúe al menos durante
18-24 meses más), hace prácticamente imposible que el personal técnico de TI
pueda estar al día para poder brindar un servicio de IA de calidad,
predecible y estable, como ocurre con aplicaciones como el correo
electrónico, el ERP o el CRM por ejemplo.
Y otra variable de gran impacto en la actualidad, es
la excesiva escasez de personal técnico con el expertise requerido para dar
soporte a estas tecnologías. Cuando hablamos de obra especializada
de TI desde hace más de 10 años que el mercado laboral es el mundo
entero, ya que todo puede resolverse de manera remota.
Y sigo: la infraestructura y la plataforma de IA son
sólo las piedras fundamentales para desarrollar aplicaciones basadas en IA que
sean de valor para el negocio. Aquí nuevamente aparecen otros dos desafíos
adicionales: la proliferación de herramientas de desarrollo para resolver
problemas específicos y las limitaciones técnicas que éstas imponen para
abordarlos.
Por ejemplo, la optimización de una red de
distribución de mercadería utilizando la capacidad disponible del ecosistema de
servicios de transporte en un determinado momento requiere de un conjunto de
algoritmos especializados que son muy diferentes a los que requieren las áreas
de marketing para estimar la reacción del mercado consumidor frente a una
hipotética campaña para impulsar un artículo en un período dado. La elección de
los algoritmos y métodos apropiados para uno y otro también requieren de capacidades
y conocimientos técnicos específicos, propios de los científicos de
datos, que no todas las organizaciones tienen a disposición entre los miembros
de las áreas de TI.
Dados los algoritmos apropiados, el insumo
básico para que los modelos de IA funcionen como se espera son los datos de la
empresa. Si los datos utilizados para entrenar los modelos no son
correctos, los resultados van a ser muy poco confiables, restándole
credibilidad al esfuerzo e inversión hecha en estas aplicaciones.
Y por último están los usuarios de estas aplicaciones. Sabemos que es utópico
pensar que por el solo hecho de poner en producción una aplicación será
adoptada inmediata y alegremente. Más bien ocurre lo contrario: el despliegue
de cualquier aplicación de negocio requiere no solo cuestiones de formación
y conocimientos técnicos puntuales, sino que hay que preparar el
terreno para el cambio que la nueva aplicación tiene en el día a día en las
operaciones del negocio.
Como se puede repasar, para llegar a una IA disruptiva
para el negocio hay que recorrer un camino sin prisa pero sin pausa, donde hay
diferentes carriles paralelos: infraestructura, ambientes, modelos, algoritmos,
datos, seguridad y personas. Por estos motivos vislumbro que todavía queda por
transcurrir bastante tiempo hasta que las organizaciones tengan la capacidad
para contar con estas aplicaciones in-house como se piensa. En
el interín, es bastante probable que las empresas deban apoyarse en vendors
con plataformas apropiadas para resolver sus casos de uso más
rápidamente, y que además sean estables y confiables cumpliendo con los
requisitos mencionados.
No hay comentarios:
Publicar un comentario