Soberanía de la IA: por qué el 93% de los ejecutivos dice que será obligatoria para 2026
En enero de 2026, Google Cloud publicó el Business Trends Report con una estadística que sacudió al mercado:El 93% de los directivos de grandes empresas dice que la soberanía de la IA será obligatoria en los próximos 12 meses. No es "deseable". No "interesante". Obligatorio.
Este número no surgió de la nada. Es un reflejo de años de filtración de datos, regulaciones cada vez más estrictas, dependencia tecnológica de unos pocos proveedores y una conciencia cada vez mayor de queQuien no controla su IA, no controla su negocio. En este artículo, analizaremos qué es la soberanía de la IA, por qué se ha convertido en el tema número uno en las salas de juntas de todo el mundo y, lo más importante, cómo usted, un profesional de la IA, puede posicionarse en esta nueva realidad.
1. El número que despertó al mercado: el 93% de los ejecutivos
El Informe de tendencias empresariales de Google Cloud 2026 entrevistó a más de 2500 ejecutivos de nivel C en 14 países. La pregunta era sencilla: "¿Su organización considera que la soberanía de la IA es una prioridad máxima para los próximos 12 meses?" La respuesta fue contundente: el 93% dijo que sí.
Pero lo que hace que esta cifra sea tan significativa no es sólo el porcentaje. Y el contexto:
- En 2024, sólo el 47% de los ejecutivos mencionaron la soberanía de la IA como una prioridad
- En 2025, la cifra aumentó al 71%, impulsada por la entrada en vigor de la Ley de IA de la UE
- En 2026, saltó al 93%, casi unánime en el nivel corporativo más alto.
La aceleración es clara. En dos años, la soberanía de la IA pasó de ser un "tema de nicho para los equipos de cumplimiento" a "la agenda de los directores ejecutivos y juntas directivas". ¿La razón? Las consecuencias de no tener soberanía ya no son teóricas. Las empresas perdieron contratos gubernamentales, sufrieron multas millonarias y vieron datos confidenciales procesados en jurisdicciones sin la protección adecuada.
Qué cambió entre 2025 y 2026
Tres acontecimientos aceleraron este cambio drástico. En primer lugar, la Ley de IA de la UE comenzó a imponer multas en febrero de 2026, y la primera empresa sancionada fue una multinacional estadounidense que procesaba datos de ciudadanos europeos en servidores fuera de la UE sin las salvaguardias necesarias. La multa de 35 millones de euros fue noticia en todo el mundo.
En segundo lugar, Brasil aprobó el PL 2338 (marco regulatorio de IA) en diciembre de 2025, vigente a partir de julio de 2026. Las empresas brasileñas se dieron cuenta de que tenían meses, no años, para adaptarse.
En tercer lugar, el incidente de violación de datos de DeepSeek a principios de 2025 demostró que los modelos de IA entrenados en jurisdicciones no transparentes pueden exponer datos corporativos de maneras impredecibles. Las empresas que utilizaron modelos chinos sin su propia auditoría se dieron cuenta del riesgo demasiado tarde.
2. ¿Qué es la soberanía de la IA (y por qué se diferencia de la soberanía de los datos)?
La soberanía de la IA y lala capacidad de una organización o país para gobernar sus sistemas, datos e infraestructura de inteligencia artificial sin depender de terceros. No se trata sólo de dónde se almacenan los datos. Y sobre el control total de la cadena de IA.
Para entender la diferencia, piense en capas:
| Capa | Soberanía de datos | Soberanía de la IA |
|---|---|---|
| Almacenamiento | Donde viven los datos | Donde viven los datos |
| Tratamiento | Donde se procesan los datos | Donde se procesan los datos |
| Modelos | -- | ¿Quién controla el modelo de IA? |
| Capacitación | -- | ¿Con qué datos se entrenó el modelo? |
| Decisiones | -- | Cómo se auditan las decisiones algorítmicas |
| Infraestructura | -- | ¿Quién controla las GPU, los clústeres y las canalizaciones? |
| código fuente | -- | Acceder al código de la plantilla o usar plantillas abiertas |
La soberanía de los datos ysubpartede la soberanía de la IA. Puedes tener soberanía de datos (tus datos están en Brasil, en tus propios servidores) y aún así no tener soberanía de IA, porque el modelo que procesa estos datos es una caja negra de una empresa estadounidense, entrenada con datos que no conoces y que se ejecuta en una infraestructura que no controlas.
Los tres pilares de la soberanía de la IA
- Soberanía de datos:control total sobre dónde se almacenan, procesan los datos y quién puede acceder a ellos. Incluye residencia de datos (los datos permanecen en el país), cifrado de extremo a extremo y control de acceso granular
- Modelo de soberanía:capacidad de elegir, auditar y reemplazar modelos de IA. Incluye el uso de modelos de código abierto, ajustes locales, interpretabilidad y capacidad de cambiar de proveedor sin bloqueo.
- Soberanía de infraestructura:control sobre el hardware y la infraestructura informática. Incluye GPU patentadas o en nubes soberanas, canales MLOps bajo control interno y la capacidad de operar independientemente de un único proveedor de nube.
Analogía sencilla:soberanía de datos y cómo tener la llave de la caja fuerte. La soberanía de la IA significa tener la llave de la caja fuerte, la combinación de alarma, el control de las cámaras, el plano del edificio y la capacidad de cambiar todo esto sin pedir permiso a nadie.
3. Por qué se convirtió en una prioridad en 2026
La convergencia de cuatro fuerzas hace que la soberanía de la IA sea inevitable para 2026:
Fuerza 1: Regulación global acelerada
La Ley de IA de la UE está en vigor e impone multas. La LGPD brasileña está siendo interpretada cada vez con más rigor por la ANPD. Estados Unidos, a pesar de ser históricamente más permisivo, está creando marcos sectoriales para la salud, las finanzas y la defensa. China tiene sus propias reglas restrictivas. El resultado: las empresas globales deben navegar en un mosaico regulatorio que requiere control local en cada jurisdicción.
Fuerza 2: datos confidenciales que alimentan la IA
En 2023, la mayoría de las empresas utilizaron la IA para tareas genéricas: resumir texto, generar imágenes y responder preguntas sencillas. En 2026, la IA estará en el negocio principal: analizar registros médicos, evaluar el riesgo crediticio, gestionar la cadena de suministro y tomar decisiones legales. Cuando la IA procesa datos confidenciales de clientes, pacientes y ciudadanos, la pregunta "¿quién controla esta IA?" Deja de ser técnico y se vuelve estratégico.
Fuerza 3: Concentración de poder en unos pocos proveedores
Cuatro empresas estadounidenses (OpenAI, Google, Anthropic, Meta) y dos chinas (Alibaba, DeepSeek) dominan el mercado de modelos de IA. Esta concentración crea dependencia. Cuando OpenAI cambia sus términos de servicio o Google cambia los precios de las API, miles de empresas se ven afectadas sin poder opinar en la decisión. La soberanía de la IA es, en parte, una respuesta a esta concentración.
Horca 4: Geopolítica de la IA
La IA se ha convertido en un arma geopolítica. Estados Unidos restringe las exportaciones de chips a China. Europa invierte miles de millones en sus propias infraestructuras para no depender de la tecnología estadounidense o china. Brasil lanza el Plan Nacional de IA. Todos los países se han dado cuenta de que depender de la IA extranjera es como depender del petróleo extranjero en el siglo XX: una vulnerabilidad estratégica.
IA regulada = IA utilizada correctamente
El uso profesional de la IA requiere herramientas serias. Claude Code con habilidades es la forma más segura y productiva de integrar la IA en su trabajo. Más de 748 habilidades, 7 categorías.
Conozca las Habilidades — R$ 194. El mapa regulatorio: LGPD, EU AI Act y PL 2338
Comprender el escenario regulatorio es esencial para cualquier profesional de la IA en 2026. Aquí está la descripción general actualizada:
Ley de IA de la UE (Unión Europea)
La Ley de IA de la UE es la regulación de IA más completa del mundo. Entró en vigor en agosto de 2025 y comenzó a imponer multas en febrero de 2026. Sus puntos claves para la soberanía:
- Clasificación de riesgo:Los sistemas de IA se clasifican como de riesgo inaceptable, alto, limitado o mínimo. Los sistemas de alto riesgo (salud, crédito, justicia, recursos humanos) requieren documentación completa, auditoría y transparencia
- Boxes de arena reglamentarios:La UE exige que las empresas prueben los sistemas de IA en entornos controlados antes de su implementación. Estos sandboxes deben estar en territorio europeo
- Transparencia del modelo:Los proveedores de modelos básicos (como GPT, Claude, Gemini) deben documentar los datos de capacitación, los riesgos conocidos y las limitaciones. Las empresas que utilizan estos modelos necesitan saber qué hay "dentro"
- Multas:hasta 35 millones de euros o el 7% de los ingresos globales, lo que sea mayor
LGPD (Brasil)
La Ley General de Protección de Datos no se creó pensando en la IA, pero se aplica cada vez más en este contexto. La ANPD (Autoridad Nacional de Protección de Datos) publicó guías específicas sobre IA y datos personales en 2025. Puntos críticos:
- Base jurídica para la formación:El uso de datos personales para entrenar modelos de IA requiere una base legal (consentimiento, interés legítimo, etc.)
- Decisiones automatizadas:El artículo 20 de la LGPD garantiza al titular el derecho a solicitar la revisión de las decisiones automatizadas. Si su IA le niega crédito a alguien, esa persona tiene derecho a entender por qué
- Transferencia internacional:El envío de datos a servidores fuera de Brasil requiere garantías adecuadas. Procesar datos brasileños en GPU en EE. UU. sin las salvaguardias adecuadas viola la LGPD
PL 2338 - Marco regulatorio brasileño de IA
Aprobado en diciembre de 2025 y vigente a partir de julio de 2026, el PL 2338 es la respuesta brasileña a la Ley de IA de la UE. Sus puntos centrales:
- Clasificación de riesgo:similar a la Ley de IA de la UE, con categorías y requisitos de riesgo proporcionales
- Evaluación de impacto algorítmica:Los sistemas de IA de alto riesgo deben someterse a evaluaciones de impacto antes de su uso
- Responsabilidad civil:define quién es responsable cuando un sistema de IA causa daño: el desarrollador, el operador o ambos
- Gobernancia:Requiere que las empresas tengan estructuras de gobernanza de la IA, con documentación, seguimiento y auditoría.
Punto crítico para las empresas brasileñas:El PL 2338 entrará en vigor en julio de 2026. Las empresas que utilizan la IA para tomar decisiones que afectan a las personas (crédito, contratación, precios, servicios) deben tener estructuras de gobernanza listas para entonces. Quienes no se preparen tendrán menos de 3 meses desde la publicación de este artículo.
5. Cómo las empresas están implementando la soberanía de la IA
La teoría es clara. Pero, ¿cómo están implementando las empresas, en la práctica, la soberanía de la IA? Hay cuatro enfoques principales, de menor a mayor soberanía:
Nivel 1: Control contractual
El enfoque más simple (y menos soberano). La empresa sigue utilizando proveedores de IA en la nube (OpenAI, Google, etc.) pero negocia contratos que garantizan la residencia de los datos, las limitaciones de uso y los derechos de auditoría. Es el mínimo viable.
- Ventaja:Rápido de implementar, sin cambios de infraestructura.
- Limitación:usted depende de que el proveedor cumpla el contrato. No existe un verdadero control técnico.
- Quién usa:empresas más pequeñas, primeros pasos de cumplimiento
Nivel 2: Nube soberana
Los grandes proveedores de nube han creado ofertas de "nube soberana": instancias aisladas, con datos procesados exclusivamente en una jurisdicción específica, operadas por equipos locales. Ejemplos:
- Nube distribuida de Google:Infraestructura de Google ejecutándose en centros de datos controlados por el cliente u operadores locales
- Microsoft Azure soberano:regiones aisladas con control de acceso y residencia de datos garantizados por la ley local
- Zonas locales dedicadas de AWS:infraestructura de AWS administrada localmente
- OVHcloud (Europa):Nube europea que nunca transfiere datos fuera de la UE
Nivel 3: modelos locales + ajuste local
La empresa ejecuta modelos de IA en su propia infraestructura. Con la evolución de los modelos de código abierto (Llama, Mistral, Qwen), esto se ha vuelto viable incluso para las medianas empresas. El proceso:
- Elija un modelo base de código abierto (Llama 3.1, Mistral Large, etc.)
- Ajuste con datos propietarios en sus propias GPU o en una nube soberana
- Implementar en infraestructura controlada internamente
- Mantener el ciclo de actualización y seguimiento interno.
Nivel 4: Soberanía total (modelo + datos + infraestructura)
El nivel más alto: la empresa (o país) desarrolla sus propios modelos, entrena con sus propios datos y opera en su propia infraestructura. Pocos pueden hacerlo: requiere una inversión masiva en GPU, talento y tiempo. Pero eso es lo que están haciendo a nivel nacional países como Francia (con el Mistral), Emiratos Árabes (con el Falcon) y China (con decenas de modelos).
| Nivel | Inversión | Control | para quien |
|---|---|---|---|
| 1. Contractual | Bajo | Mínimo | Pymes, primeros pasos |
| 2. Nube soberana | Promedio | Alto | Medianas/grandes empresas |
| 3. Local | Alto | muy alto | Bancos, sanidad, gobierno. |
| 4. Soberanía total | muy alto | Total | Gobiernos, grandes tecnológicas |
6. El impacto en Brasil: el Plan Nacional de IA y los R$ 23 mil millones
Brasil se está moviendo. En marzo de 2026, el gobierno federal lanzó el Plan Nacional de Inteligencia Artificial con una inversión prevista deR$ 23 mil millones para 2030. Los cuatro ejes del plan:
Eje 1: Infraestructura computacional soberana
Construcción de centros de computación de alto rendimiento (HPC) en territorio brasileño. El objetivo es tener capacidad para entrenar modelos a gran escala sin depender de infraestructura extranjera. Ya se han anunciado tres centros: en São Paulo, Brasilia y Campinas, que se espera que estén operativos en 2028.
Eje 2: Formación del talento
Inversión de R$ 3,2 mil millones en la formación de profesionales de IA, desde el nivel técnico hasta el doctorado. Incluye becas internacionales, programas de residencia en IA y asociaciones con universidades públicas. El objetivo es formar a 100.000 profesionales de la IA de aquí a 2030.
Eje 3: Regulación y gobernanza
Implementación del PL 2338, creación de sandboxes regulatorios y fortalecimiento de la ANPD para monitorear el uso de IA. También incluye la creación de una Agencia Nacional de IA (prevista para 2027) que centralizará las políticas públicas sobre inteligencia artificial.
Eje 4: IA para los servicios públicos
Uso de la IA en salud pública (diagnóstico, cribado), educación (tutoría adaptativa), seguridad pública y gestión fiscal. La condición: todos los sistemas deben operar en infraestructura brasileña, con datos de los ciudadanos procesados exclusivamente en el país.
¿Qué significa esto en la práctica?Las empresas que venden soluciones de inteligencia artificial al gobierno brasileño deberán garantizar la soberanía total de los datos y la infraestructura. Los proveedores extranjeros que no creen operaciones locales quedarán excluidos de la licitación. Esto crea enormes oportunidades para las empresas brasileñas de IA.
7. Casos reales: Europa, Estados Unidos y América Latina
Europa: sandboxes obligatorios y el caso de la multa de 35 millones
España fue pionera en la creación del primer sandbox regulatorio de IA de la UE, en 2024. Desde entonces, Francia, Alemania y Países Bajos han creado el suyo. Las empresas que quieran operar con IA de alto riesgo en la UE deben probar sus sistemas en estos entornos sandbox antes de implementarlos.
El caso más emblemático de 2026 fue la multa de 35 millones de euros impuesta a una empresa de contratación que utilizó IA para filtrar candidatos en los procesos de selección europeos. El problema: el modelo fue entrenado con datos estadounidenses, se ejecutó en servidores en EE. UU. y las autoridades europeas no pudieron auditar las decisiones algorítmicas. La empresa tenía 90 días para migrar toda su operación a la infraestructura europea o cesar sus actividades en la UE.
Estados Unidos: enfoque sectorial
Estados Unidos no tiene una ley general sobre IA como Europa. En cambio, regulan por sector. La FDA ha creado reglas para la IA en dispositivos médicos. La SEC ha creado directrices para la IA en el comercio algorítmico. El Departamento de Defensa exige soberanía total para cualquier sistema de inteligencia artificial utilizado en operaciones militares: los modelos deben funcionar en infraestructura estadounidense clasificada.
América Latina: Brasil lidera, pero no está solo
Chile lanzó su Política Nacional de IA en 2025. Colombia creó un marco ético de IA. México está debatiendo regulación. Pero Brasil, con el PL 2338 y el Plan Nacional de R$ 23 mil millones, es con diferencia el más avanzado de la región. Esto posiciona a Brasil como el centro de IA de América Latina, si se ejecuta bien.
8. Los riesgos de ignorar la soberanía de la IA
Las empresas que tratan la soberanía de la IA como un “problema del futuro” están asumiendo riesgos concretos:
- Multas regulatorias:Con la Ley de IA de la UE y el PL 2338 en vigor, las multas pueden alcanzar el 7% de los ingresos globales. Para una empresa con ingresos de R$ 100 millones, esto equivale a R$ 7 millones
- Pérdida de contratos públicos:Los gobiernos exigen soberanía de datos e inteligencia artificial en las licitaciones. Sin certificación, estás fuera
- Bloqueo de proveedor:Si toda su IA depende de un proveedor, puede aumentar los precios, cambiar los términos o interrumpir los servicios sin que usted tenga otra alternativa.
- Fuga de propiedad intelectual:Los datos enviados a las API de IA se pueden utilizar para la capacitación (según los términos). Los secretos industriales procesados en modelos de terceros son un riesgo real
- Daño reputacional:Una filtración de datos de IA genera titulares. La confianza del cliente se destruye en minutos y lleva años reconstruirla
- Incapacidad de auditoría:Cuando un regulador te pide que expliques cómo tu IA tomó una decisión y tú no puedes (porque el modelo es una caja negra de un tercero), es tu problema.
El costo de no actuar versus el costo de actuar
Implementar costos de soberanía de IA. Pero no implementarlo cuesta más. Una sola multa de la Ley de IA de la UE puede pagar 10 años de inversión en infraestructura soberana. Un solo contrato gubernamental perdido podría cubrir el costo de pasar a la nube soberana. El cálculo económico es cada vez más claro: soberanía e inversión en IA, no costo.
9. Cómo deben prepararse los profesionales de la IA
Si trabaja con IA (como desarrollador, analista, gerente o consultor), la era de la soberanía cambia el juego. Estas son las habilidades que cada vez están más valoradas:
Habilidades técnicas
- Gobernanza de la IA:comprender los marcos de gobernanza (NIST AI RMF, ISO 42001, cumplimiento de la Ley de IA de la UE), mapear riesgos, documentar sistemas y crear procesos de auditoría
- Implementación local:Saber ejecutar modelos localmente con herramientas como vLLM, Ollama, Text Generation Inference (TGI). Configure GPU, optimice la inferencia y administre el ciclo de vida del modelo
- Ajuste local:Adaptar modelos de código abierto a dominios específicos sin enviar datos a terceros. Herramientas como LoRA, QLoRA y PEFT hacen que esto sea factible con hardware modesto.
- MLOps soberanos:Canalizaciones de aprendizaje automático que se ejecutan completamente en infraestructura controlada. Versionado de modelos, monitoreo de deriva, pruebas A/B internas
- Seguridad del modelo:proteger los modelos contra ataques (inyección rápida, envenenamiento de datos, extracción de modelos), implementar barreras de seguridad y monitorear el uso de producción
Competencias estratégicas
- Regulación:Leer e interpretar la LGPD, la Ley de IA de la UE y la PL 2338 no es sólo trabajo de un abogado. Los profesionales de IA que entienden la regulación son puentes entre los equipos técnicos y legales
- Evaluación de riesgos:clasificar los sistemas de IA por nivel de riesgo, mapear los impactos y crear planes de mitigación. Esta habilidad tiene una demanda explosiva
- Comunicación ejecutiva:traducir conceptos técnicos de soberanía de la IA al lenguaje empresarial. El director ejecutivo necesita entender por qué invertir. Necesitas saber explicar
Consejos prácticos:Comience con el Marco de gestión de riesgos de IA del NIST (AI RMF). Es gratuito, completo y reconocido mundialmente. Organiza la gobernanza de la IA en cuatro funciones: gobernar, mapear, medir y gestionar. Dominar este marco te sitúa por delante del 90% de los profesionales de IA del mercado.
10. Herramientas y marcos para la gobernanza de la IA
No es necesario empezar desde cero. Existen marcos y herramientas maduros para implementar la soberanía y la gobernanza de la IA:
Marcos regulatorios y de gobernanza
| Estructura | quien creó | Foco |
|---|---|---|
| NIST AI RMF | NIST (Estados Unidos) | Gestión de riesgos de IA |
| ISO 42001 | ISO | Sistema de gestión de IA |
| Ley de IA de la UE | unión Europea | Regulación legal de la IA |
| Principios de IA de la OCDE | OCDE | Principios éticos de la IA |
| Ética de la IA de la UNESCO | UNESCO | Ética global de la IA |
Herramientas técnicas para la soberanía
| Herramienta | Función | Uso para la soberanía |
|---|---|---|
| Hola | Ejecute LLM localmente | Inferencia local sin API externa |
| vLLM | Servicio de plantillas optimizado | Implementación local de alto rendimiento |
| flujo ml | MLOps y control de versiones | Seguimiento de modelos y experimentos internamente |
| Pesos y sesgos | Monitoreo de aprendizaje automático | Versión autohospedada para control total |
| Barandillas AI | Validación de salida | Garantizar que los modelos sigan las políticas internas |
| LangFuse | Observabilidad de los LLM | Supervisar el uso, el coste y la calidad de las plantillas |
Modelos de código abierto para la soberanía
La existencia de modelos de código abierto de alta calidad es lo que hace que la soberanía de la IA sea viable para las medianas empresas. Los principales en 2026:
- Llama 3.1 (Meta):Modelos de parámetros 8B a 405B, licencia permisiva, excelente para ajustes finos.
- Mistral Grande (Mistral AI):Modelo europeo de alto rendimiento, alternativa soberana para las empresas de la UE
- Qwen 2,5 (Alibaba):fuerte en multilingüe, incluido el portugués
- Comando R+ (Coherir):optimizado para RAG y uso empresarial, disponible para implementación local
11. El futuro: la soberanía como ventaja competitiva
La narrativa actual trata la soberanía de la IA como el costo del cumplimiento, algo que se hace porque es necesario. Pero las empresas más inteligentes lo ven de otra manera:Soberanía de la IA y ventaja competitiva.
¿Por qué? Tres razones:
- Confianza del cliente:En un mundo de filtraciones de datos y escándalos, las empresas que demuestran un control total sobre su IA se ganan la confianza del mercado. "Sus datos nunca abandonan nuestra infraestructura" es un poderoso argumento de venta
- Mejores modelos propietarios:Cuando ajustas tus propios datos en los modelos que controlas, creas una ventaja que nadie puede copiar. Tu modelo conoce tu dominio mejor que cualquier modelo genérico
- Resiliencia operativa:Si la API de OpenAI deja de funcionar (y lo ha hecho varias veces), las empresas con modelos locales continúan operando. Soberanía y también un plan de continuidad del negocio
La tendencia para los próximos años es clara: la soberanía de la IA ya no será un diferenciador y se convertirá en una expectativa básica. Así como tener HTTPS en el sitio web dejó de ser “extra” y pasó a ser obligatorio, tener control sobre tu IA será lo mínimo aceptable. Quienes empiecen ahora tendrán años de ventaja sobre quienes esperan a que el regulador toque a la puerta.
El 93% de los ejecutivos que ya entendieron esto están invirtiendo hoy. La pregunta no es “si” se necesitará la soberanía de la IA. Y "cuándo empezarás".
Prepárese para el futuro de la IA, con habilidades
El escenario regulatorio cambia, pero la necesidad de productividad no. Las habilidades profesionales de Claude Code te dan una ventaja independientemente de las reglas. Más de 748 habilidades, R$ 19, de por vida.
Acceso Garantizado — R$ 19Preguntas frecuentes
La soberanía de la IA es la capacidad de una organización o país para gobernar sus sistemas, datos e infraestructura de inteligencia artificial sin depender de proveedores extranjeros. Esto incluye controlar dónde se procesan los datos, qué modelos se utilizan y cómo se auditan las decisiones algorítmicas.
Según el Google Cloud Business Trends Report 2026, la combinación de regulaciones estrictas (EU AI Act, LGPD, PL 2338), riesgos de seguridad con datos sensibles y la necesidad de control sobre las decisiones algorítmicas llevó al 93% de los ejecutivos a considerar obligatoria la soberanía de la IA durante los próximos 12 meses.
Las empresas brasileñas se ven directamente afectadas por la LGPD y el PL 2338 (marco regulatorio de IA, vigente a partir de julio de 2026). El Plan Nacional de IA prevé inversiones de R$ 23 mil millones. Las empresas que no se adapten se enfrentan a multas, pérdida de competitividad y exclusión de contratos gubernamentales.
La soberanía de los datos se refiere al control sobre el almacenamiento y procesamiento de datos. La soberanía de la IA es más amplia: incluye la soberanía de los datos, pero también el control sobre los modelos de IA, los algoritmos de decisión, la infraestructura de formación y toda la cadena de desarrollo de la inteligencia artificial.
Los profesionales deben dominar la gobernanza de la IA (NIST AI RMF, ISO 42001), comprender las regulaciones (LGPD, EU AI Act, PL 2338), aprender la implementación local (Ollama, vLLM), el ajuste local y desarrollar habilidades en auditoría algorítmica. Las habilidades de cumplimiento y gobernanza de la IA serán las más valoradas en el mercado en 2026.