Episodio completo DEL MES:



Instagram Grupo en Telegram


Inteligencia artificial sin maquillaje: lo que ya exigen banca y sector público

Inteligencia artificial en banca y gobierno: menos promesas y más decisiones que se puedan explicar

En un encuentro de SAS con periodistas en Bogotá, la conversación giró alrededor de una idea que ya se volvió inevitable: la inteligencia artificial dejó de ser un experimento bonito y ahora compite contra el negocio real, los costos reales y las reglas reales. En banca y sector público, el debate ya no es si usar IA, sino cómo hacerlo sin perder control, sin disparar gastos y sin meterse en problemas regulatorios.


Inteligencia artificial sin maquillaje: lo que ya exigen banca y sector público


Lo interesante del encuentro es que no se quedó en el discurso técnico. Las preguntas de la prensa empujaron la conversación hacia lo que de verdad importa: retorno, confianza, tiempos, costos y qué gana el usuario final, sea cliente de un banco o ciudadano.

Cuando los milisegundos importan más que el discurso

Iván Herrera lo explicó de forma directa: en el mundo transaccional no hay paciencia. Si un banco no bloquea una transacción sospechosa en el momento, el reclamo llega igual. El cliente no quiere una disculpa mañana; quiere que el problema no pase hoy.

Por eso, los bancos han concentrado sus esfuerzos en dos frentes muy concretos: fraude y crédito. No por moda, sino porque ahí el retorno se ve rápido. Menos fraude significa menos plata perdida en horas. Mejor originación de crédito significa más colocación casi inmediata. Esos casos permiten justificar inversión sin rodeos.

Y ahí aparece una tensión interesante: hoy aplicar inteligencia artificial ya no es una ventaja extra. Si tú no la aplicas, alguien más lo hará. Pero cuando todos la usan, empiezan a aparecer fisuras: sesgos, errores internos, decisiones difíciles de justificar. Es en ese punto donde la conversación se mueve del “uso” al gobierno de la inteligencia artificial.


IA sin gobierno: el nuevo riesgo silencioso

Tanto Iván como Jalena insistieron en lo mismo desde ángulos distintos: el problema ya no es implementar IA, sino gobernarla. A medida que las organizaciones meten más modelos, más agentes y más automatización en sus procesos, aparecen preguntas incómodas:

¿Quién responde si una decisión fue injusta?

¿Quién audita un modelo?

¿Quién explica por qué se aprobó o rechazó algo?

Esto ya no es un detalle técnico. A nivel global, muchas empresas están creando roles dedicados exclusivamente a confianza, ética y auditoría de inteligencia artificial. No es exageración: quien no lo haga, va a tener más fricción con reguladores, con clientes y con sus propios equipos internos.

De los chatbots a los agentes que trabajan solos

Uno de los puntos que más se repitió fue el salto desde la inteligencia artificial “que conversa” a la inteligencia artificial “que actúa”. Ya no se habla solo de modelos que responden preguntas, sino de agentes que ejecutan tareas, y más recientemente, de sistemas multiagente, donde varios agentes se coordinan para cumplir objetivos completos.

La traducción a lenguaje sencillo es esta: la IA empieza a meterse en procesos diarios que antes eran manuales. Flujos de aprobación, validaciones, priorización de casos, decisiones repetitivas. La promesa no es que desaparezca el humano, sino que el humano deje de hacer lo que puede automatizarse y se enfoque en lo que requiere criterio.

El verdadero cuello de botella: los datos y su costo

Aquí la conversación se puso incómoda, porque toca presupuesto. Durante años se repitió la frase de “si metes basura, sale basura”. Hoy el problema es más grande: el volumen de datos es monstruoso, y gobernarlo cuesta dinero.

Jalena Correa lo explicó con una idea clara: muchas organizaciones dicen “confío en la IA”, pero cuando toca invertir, se frenan. No por miedo a la tecnología, sino porque no siempre está claro qué se gana, cuánto cuesta y cuándo se ve el retorno.

Esto genera una zona gris que apareció varias veces en las preguntas: empresas con buena percepción de la IA, pero con uso bajo o superficial. La conclusión fue directa: ahí falta comunicación, ejemplos claros y casos que muestren beneficios medibles.

La nube ya no es blanco o negro

Otro tema que apareció varias veces fue el regreso de las arquitecturas híbridas. Después del impulso inicial de “todo a la nube”, muchas organizaciones se encontraron con costos inesperados, restricciones legales y pérdida de control.

Hoy la conversación es más pragmática: ¿qué procesos pueden ir a nube pública y cuáles conviene mantener bajo control directo? En banca, Iván fue muy concreto: la información transaccional, la que muestra cómo se comporta el cliente minuto a minuto, suele quedarse “inhouse”. En cambio, datos demográficos u otra información menos sensible pueden moverse con más flexibilidad.

No es un retroceso. Es madurez.

Datos sintéticos: una salida elegante a dos problemas grandes

Antes de entrar en ese punto, vale la pena aclarar qué son los datos sintéticos. En pocas palabras, son datos generados artificialmente que imitan el comportamiento de datos reales, pero sin contener información real de personas, clientes o ciudadanos. Se crean a partir de patrones estadísticos y sirven para entrenar modelos, probar sistemas o hacer análisis sin exponer datos sensibles. Esto permite trabajar con inteligencia artificial reduciendo riesgos de privacidad, facilitando la colaboración entre organizaciones y, además, bajando costos de almacenamiento cuando no es necesario guardar enormes volúmenes de información real.

Los datos sintéticos aparecieron como uno de los temas más prácticos del encuentro. Por dos razones:

Primero, costo. Almacenar enormes volúmenes de información es caro, y en muchos diseños el almacenamiento se lleva la mayor parte del presupuesto. Con datos sintéticos, se guarda una muestra real y se generan datos estadísticamente similares cuando se necesitan para entrenar modelos.

Segundo, privacidad y colaboración. En sectores como gobierno o salud, compartir datos reales es casi imposible. Con datos sintéticos, se pueden compartir patrones sin exponer información real de ciudadanos o pacientes. Esto abre puertas a colaboración entre entidades que hoy ni se hablan por desconfianza.

Lo que preguntó la prensa y por qué importa

Las preguntas de los periodistas llevaron la conversación a tierra. No se preguntó por el algoritmo más nuevo, sino por cosas como:

¿Cómo compite la banca tradicional contra fintechs y actores globales?

¿Cómo se evita que la IA dispare los costos operativos?

¿Por qué el sector público es tan reacio a compartir información?

¿Qué gana el ciudadano final con todo esto?

Ahí apareció una idea potente: el problema del sector público no es la falta de datos, sino la falta de confianza y de integración. Se mencionaron ejemplos simples, como trámites notariales o cruces básicos de información, que podrían ahorrar tiempo y dinero sin necesidad de usar IA avanzada. A veces, integrar bien ya sería un salto enorme.

También se habló de la desigualdad de madurez entre bancos. Algunos están listos para modelos avanzados; otros todavía hacen análisis manuales que ponen los pelos de punta. Por eso, se insistió en evaluaciones de madurez y acompañamiento por etapas, no en vender soluciones gigantes a quien no está preparado.


Esta conversación conecta muy bien con otra mirada que ya se había puesto sobre la mesa en el pódcast EntreVistas 21, donde Santiago Fainstein, vocero de SAS, explicó cómo las organizaciones están pasando del entusiasmo inicial por la inteligencia artificial a una etapa mucho más exigente: usarla para tomar decisiones reales, medibles y sostenibles. En esa entrevista, Fainstein insistía en que el valor de la IA no está en “tenerla”, sino en integrarla al negocio con criterios claros de control, costos y responsabilidad, una idea que dialoga directamente con lo discutido en Bogotá sobre gobierno, datos, automatización y retorno de inversión.



¿Soluciones a la medida o modelos repetibles?

Otra pregunta directa fue si todo esto implica rehacer soluciones desde cero para cada cliente. La respuesta fue clara: las herramientas se habilitan, pero el conocimiento del negocio es del cliente. Cada empresa construye sus reglas, sus modelos y su ventaja competitiva. No se copian modelos entre clientes.

Eso obliga a algo importante: transferencia de conocimiento. La idea es que el cliente no dependa siempre del proveedor, sino que pueda ajustar, evaluar y evolucionar sus procesos con el tiempo.

El punto en común: explicar, decidir y evaluar

Si hay un hilo que conecta todo lo que se habló, es este: la inteligencia artificial que vale la pena es la que se puede explicar, se puede gobernar y se puede evaluar. No la que deslumbra en una demo, sino la que mejora decisiones reales y se sostiene en el tiempo.

Banca y gobierno avanzan a ritmos distintos, pero comparten el mismo reto: pasar de la moda a la operación. Y ahí, curiosamente, el papel de la prensa es central: traducir estas discusiones para que más organizaciones entiendan qué ganar, qué evitar y por dónde empezar.


Comentarios

PayPal

Archivo

Mostrar más

Entradas populares de este blog

Gafas traductoras de Meta

Duolingo ahora enseña ajedrez

Resonancias magnéticas en Leticia