El desfase entre la veloz curva de avance de la Inteligencia Artificial (IA) y el ritmo de adopción de esta tecnología en la industria no convencional de la Argentina, especialmente en Vaca Muerta, fue el eje del encuentro de especialistas en tecnología e hidrocarburos sobre “Eficiencia Aplicada al Oil & Gas” organizado por la empresa de servicios especiales Calfrac, las tecnológicas AWS e Inisoft y la consultora especializada Trossero & Co.
El primer panel denominado “Innovar con datos para incrementar eficiencia en operaciones” contó con especialistas de AWS, Inisoft Global, Grondplek y Aleph Energy. La panelistas contarán los casos reales sobre modelos predictivos, IA generativa y estrategia de datos aplicada a operaciones en la industria. Un segundo abordó “Casos de Innovación & Tecnología Aplicada a Oil & Gas – Dual Fuel” con referentes de Tecpetrol, Calfrac, Eku Power Drives y QM.

La coincidencia general de los expositores subraya que si bien la IA es una herramienta clave, la curva de avance tecnológico es significativamente más rápida que la curva de adopción del sector del Oil & Gas, ya que este requiere adaptar procesos y acercar mundos entre la producción y la tecnología. En ese sentido, coincidieron en que los equipos de trabajo deben ser mixtos y que la IA funciona mejor como un copiloto o apoyo al experto, no como una solución técnica autónoma.
Extender la IA en Vaca Muerta
El objetivo central es reducir esa brecha para lograr ganancias sustanciales de eficiencia e impacto real en el negocio, para lo cual los expertos recalcaron que la IA debe apoyar los procesos de cada una de las empresas, sin proponer una solución única para toda la industria. Una de las propuestas del debate fue desarrollar un agente especializado en energía (como Gemini o Chat GPT, pero de exclusivo procesamiento con IA generativa para la industria) que requiere un proceso detallado de facilitarle información, darle instrucciones y enseñarle el entorno en el cual se va a mover, para poder generar un modelo.
Pero el debate tecnológico se da en un contexto geopolítico y económico de alta exigencia global. Daniel Dreizzen, managing director de Aleph Energy, destacó que la demanda energética no para de crecer y se está acelerando -creciendo más del 2% en 2024- con Estados Unidos como principal productor mundial tras la revolución del shale. Dreizzen alertó que la demanda eléctrica mundial crece al doble del promedio de otras energías, un 4,2%, y que la propia IA es un motor de ese aumento de consumo, cuya necesidad energética “pareciera ser casi infinita”.
“Ser exportadores de energía exige una eficiencia superlativa no solo en el upstream sino en toda la cadena de valor”, dijo el analista que identificó el capital como una de las principales restricciones en esa competencia de recursos y enfatizó la necesidad de una adopción sistémica de la IA para lograr la competitividad necesaria en proyectos que se miden a escala global.

Matías Orrico, Data and IA Specialist de AWS, enfatizó que la IA generativa requiere una base sólida de información para ser efectiva, ya que “si el dato no está bien, la respuesta es exponencialmente peor que un machine learning tradicional”. Por ello, subrayó que lo esencial es el buen gobierno de datos y la fundación de datos para asegurar que el sector pueda acceder a ellos de manera confiable para la toma de decisiones.
El especialista explicó que el caso de uso impulsa las soluciones de AWS, y que un proyecto de IA es exitoso por su repago y el beneficio para la compañía. Como ejemplo, mencionó la carga de datos de pozos para que la IA responda con lenguaje natural sus características, lo que reduce drásticamente el tiempo de análisis humano. Además, destacó la visión de la IA como asistente: “El mejor uso de la IA es de copiloto, acompañante del experto, que le permite acceder y procesar más rápido la información”. Para la implementación, recomendó contar con una plataforma de datos gobernada y un framework para abordar todos los proyectos de IA generativa.
Ganar eficiencia, impactar en el negocio
Desde la perspectiva del desarrollo e implementación, Mauro Cocco, Data Scientist de Inisoft Global, señaló que muchas empresas no iniciaron aún el camino digital y que el paso inicial es crucial para convencer a la estructura corporativa de los beneficios. “El principal desafío es romper la inercia a través de proyectos de corto alcance y grandes ganancias, donde la calidad de los datos iniciales puede ser baja, pero que permiten implementar modelos sencillos con resultados transformadores”, consideró.
El experto de Inisoft identificó que la industria petrolera está «un paso atrás» de otros sectores productivos por la amplitud de sus áreas técnicas y porque la calidad y el tipo de datos están fuertemente ligados a condiciones físicas. Enfatizó que es fundamental entender el problema en profundidad: “Mucha veces la solución basada en datos no tiene que irse necesariamente a lo complejo sino atacar de forma incremental esa solución”. Citó como caso de éxito la optimización del monitoreo en la etapa de flowbacks para la detección temprana de alarmas en la degradación de orificios, un incidente poco usual pero “carísimo” en pérdidas económicas y operativas.

Por su parte, Tomás Chernoff, CTO & Co-founder de Grandplek, abordó el concepto desde la tecnología de manufactura avanzada, en particular la impresión 3D metálica. Chernoff explicó que “la industria está integrando soluciones de IA en el diseño de piezas de alta criticidad, lo que se conoce como diseño paramétrico o diseño orgánico generativo. Esta metodología utiliza el análisis de datos e IA para generar modelos de fabricación con eficiencias que no parecen mecánicas”.
El especialista de Grandplek destacó que “el potencial de esta fusión para la industria es hackear la forma que se pueden obtener las piezas” y permite abordar el proceso interactivo de diseño sin producción local. La implementación requiere superar las barreras de ensayos y calidad, aprovechando la analogía de datos de otros mercados más maduros. Finalmente, proyectó el mediano y largo plazo del sector: “El futuro es encontrar una manera de calidad y procesos bajo estándares y pasar las barreras de ensayos y de datos válidos”.








