Publication date 21/04/2026
Una mujer de negocios hace clic en un holograma de IA que se muestra en una pantalla
Description

AutoML, augmented analytics y la explosión generativa han abierto la puerta. La pregunta es si estamos preparados para lo que entra por ella.

Durante décadas, la inteligencia artificial fue un territorio acotado. Construir un modelo de machine learning exigía conocimientos estadísticos profundos, dominio de lenguajes de programación especializados y acceso a infraestructura de cálculo que solo las grandes corporaciones y los centros de investigación podían permitirse. La IA era, en la práctica, un club con una barrera de entrada considerable.

Con el tiempo, esa barrera se ha ido erosionando en oleadas sucesivas. Primero con el AutoML, que automatizó la construcción de modelos. Después con el augmented analytics, es decir, la analítica de datos que usando IA puso la analítica avanzada en manos de perfiles de negocio, menos técnicos. Y, ahora, con la universalización de la IA generativa sucede un tercer acto que lo cambia todo porque cualquier persona con una idea y acceso a Internet puede crear agentes, skills y flujos de trabajo inteligentes sin escribir una línea de código.

No obstante, como ha sucedido con otros desarrollos tecnológicos, la universalización de la IA nos obliga, como sociedad, a repensar algunas cuestiones. En este post, repasamos algunas de ellas.

AutoML: el primer acto de la universalización

El concepto de AutoML (Automated Machine Learning) surgió como respuesta al cuello de botella que existía por la escasez de científicos de datos capaces de construir modelos de calidad. Para entender su valor, conviene recordar lo que implica el proceso tradicional de machine learning:

  1. Recopilar y limpiar datos.

  2. Seleccionar las variables relevantes (feature engineering).

  3. Elegir entre decenas de algoritmos posibles según el tipo de problema que queremos resolver (por ejemplo, predecir, clasificar o detectar patrones) o buscando un mejor comportamiento del modelo.

  4. Ajustar sus hiperparámetros. Por ejemplo, configurar en una red neuronal, el número de capas o de neuronas que tiene.

  5. Validar los resultados con métricas estadísticas.

Cada una de esas etapas requiere criterio técnico especializado. Lo que el AutoML hace es automatizar la mayor parte de ese pipeline, permitiendo que el usuario se concentre en definir el problema y aportar los datos.

Plataformas como Google AutoMLAmazon SageMaker CanvasAzure Machine Learning permiten, por ejemplo, que un responsable de logística suba un histórico de envíos y obtenga un modelo predictivo de tiempos de entrega sin necesidad de saber qué es un gradient boosting o cómo se calibra una red neuronal. El sistema prueba combinaciones de algoritmos, optimiza parámetros y devuelve el modelo con mejor rendimiento. El experto aporta lo que ningún algoritmo puede automatizar: el conocimiento del dominio y el contexto del negocio.

Según datos de la industria, el sector del AutoML ha pasado de 2,34 mil millones de dólares en 2025 a una proyección de 3,43 mil millones en 2026, con un crecimiento anual cercano al 47%. Este crecimiento viene acompañado de una rápida adopción empresarial, con muchas organizaciones incorporando ya estas capacidades o planificando su despliegue a corto plazo. Lo que hace una década era investigación de frontera, hoy es una funcionalidad estándar en las principales plataformas cloud.

Augmented analytics: la analítica que se explica sola

Si el AutoML democratizó la creación de modelos, el augmented analytics hizo lo propio con la extracción de insights, es decir, con la obtención de conclusiones de valor. La idea central es que las herramientas de analítica incorporen inteligencia artificial en cada fase del proceso, desde la preparación de los datos hasta la visualización de resultados, para que el usuario no necesite ser un analista experto para obtener conclusiones accionables.

En la práctica, esto se traduce en capacidades concretas, como, por ejemplo:

  • Detección automática de anomalías en los datos.

  • Generación de explicaciones en lenguaje natural sobre por qué una métrica ha cambiado.

  • Recomendaciones proactivas de análisis que el usuario no había solicitado pero que el sistema identifica como relevantes.

Pensemos en un director comercial que consulta su cuadro de mandos y, en lugar de tener que cruzar tablas manualmente, recibe una alerta que dice: «Las ventas en la región sur han caído un 12% este trimestre, correlacionado con un aumento del 8% en los tiempos de entrega del proveedor X». Eso es augmented analytics: un análisis que va más allá de la mera visualización de datos, donde la herramienta también los interpreta y los contextualiza.

Gartner lleva tiempo señalando cómo la IA está transformando a los consumidores de contenido analítico en creadores de ese mismo contenido. Dicho de otro modo: la línea que separaba a quienes hacían los informes de quienes los leían se está difuminando. Además, la consultora prevé que para 2027, el 75% del contenido analítico nuevo utilizará IA generativa para ofrecer inteligencia contextual.

Ahora bien, el propio Gartner introduce un matiz que merece atención: el 60% de las organizaciones no lograrán materializar el valor de sus casos de uso de analítica aumentada debido a marcos de gobernanza de datos deficientes. Por eso es tan relevante contar con una sólida gobernanza de datos antes de implementar modelos de IA.

La explosión generativa: agentes y skills al alcance de todos

El tercer acto llegó con la IA generativa. Algunos de los modelos más conocidos son ChatGPTClaudeGemini que pusieron la inteligencia artificial en el bolsillo de millones de personas como herramienta de consulta y, además, que abrieron algo cualitativamente distinto: la posibilidad de crear con IA.

Plataformas como n8nMake o los propios entornos de AnthropicOpenAI permiten hoy diseñar agentes inteligentes: programas que razonan, consultan fuentes, toman decisiones y ejecutan acciones mediante interfaces visuales. Un usuario no técnico puede configurar un agente funcional en un rango de entre 15 y 60 minutos, sin escribir código. Se pueden construir skills especializadas, encadenar herramientas, conectar API y orquestar flujos de trabajo que hace tres años habrían requerido todo un equipo de ingeniería para su desarrollo.

Hoy en día quienes construyen IA ya no son exclusivamente ingenieros; son responsables de marketing que automatizan la generación de contenido, gestores de operaciones que crean asistentes para su equipo o consultores que diseñan flujos de análisis personalizados. La creación de inteligencia artificial se ha convertido, para un segmento creciente de profesionales, en una extensión natural de su trabajo.

Los retos de universalizar sin trivializar

Más allá de las oportunidades, esta apertura tecnológica tiene un reverso que conviene no subestimar. Cuando la barrera de entrada es baja, entra más talento y más ideas, pero también entra más riesgo. Y los riesgos de que personas no expertas creen sistemas de IA operan en varios planos simultáneamente.

  • El primero es la seguridad: conectar modelos de lenguaje a herramientas externas y encadenar agentes multiplica vulnerabilidades que ya son problemáticas en modelos aislados. La mayoría de los creadores técnicos no conocen el riesgo que puede haber en utilizar contenido con instrucciones maliciosas en el proceso de entrenamiento del agente. Un agente mal configurado que accede a datos sensibles puede convertirse en una puerta trasera involuntaria.

  • El segundo es la gobernanza: crear un agente es fácil; asegurar que opera dentro de límites éticos y normativos, no tanto. ¿Quién es responsable cuando un agente construido por un analista de marketing toma una decisión que afecta a clientes? ¿Bajo qué marco se audita un flujo de trabajo que nadie documentó porque la herramienta no lo exigía? La regulación avanza más lenta que la tecnología, y el vacío normativo es especialmente pronunciado en el ámbito de los agentes autónomos.

  • El tercero, quizá el más sutil, es la ilusión de comprensión: las interfaces no-code son extraordinariamente eficaces para ocultar la complejidad subyacente. Un usuario puede construir un agente que funciona sin entender por qué funciona, lo que significa que tampoco entenderá por qué falla cuando falle. Y fallará. La diferencia entre un sistema robusto y uno frágil reside a menudo en decisiones de diseño que las plataformas visuales no hacen visibles: el tratamiento de casos extremos, la gestión de errores, la calibración de la incertidumbre.

Universalizar con los ojos abiertos

A pesar de todo, la universalización de la IA es, en balance, una buena noticia. Ampliar el número de personas capaces de crear soluciones inteligentes multiplica la capacidad de innovación. Y, todo ello se traduce directamente en aplicaciones útiles.

Pero que algo sea fácil de construir no lo convierte en fácil de operar con responsabilidad. El reto de los próximos años va más allá de lo técnico (mejorar la seguridad de los agentes, desarrollar frameworks de gobernanza o cerrar vulnerabilidades). El desafío también es educativo porque necesitamos que quienes crean IA, aunque no sean ingenieros, comprendan lo suficiente de lo que están creando como para anticipar sus fallos, respetar sus límites y asumir sus consecuencias.

La verdadera democratización consiste en dar herramientas junto con la comprensión mínima para usarlas bien. Y eso es lo que se debe garantizar para que el uso de la IA sea algo universal.

Contenido elaborado por Juan Benavente, ingeniero superior industrial y experto en Tecnologías ligadas a la economía del dato. Los contenidos y los puntos de vista reflejados en esta publicación son responsabilidad exclusiva de su autor.