• nubes
    13° 9 de Julio de 2025
622a82c6-a5a4-4945-ac07-e538dbc8e397jpg

La inteligencia artificial: ¿una nueva cómplice para cometer delitos?

Expertos analizan en diálogo con TN Tecno cómo es utilizada la IA generativa en la comisión de un crimen y qué dice la legislación de la Argentina sobre ese punto.

¿Puede una inteligencia artificial ser cómplice de un delito? Si es así, ¿quién es responsable? Las respuestas a estas preguntas todavía se debaten en ámbitos legales y académicos, pero un punto está claro: hoy es técnicamente posible que una persona logre que una IA generativa la asista en la comisión de un crimen.

No es ciencia ficción. Con el prompt adecuado, es decir, una instrucción precisa y diseñada para no activar los sistemas de moderación, un chatbot puede brindar indicaciones detalladas para hackear un sistema, manipular información o vulnerar la seguridad de una oficina pública.

¿Por qué sucede esto? Porque la IA no tiene conciencia moral ni capacidad de distinguir el bien del mal. “La inteligencia artificial, a diferencia de los humanos, no actúa con malicia: simplemente ejecuta lo que se le pide, según patrones aprendidos durante su entrenamiento”, explicaron a TN Tecno desde Cloud Legion, empresa centrada en la protección de la información de las empresas.

El uso de IA abre un nuevo debate en la prevención del delito. (Imagen ilustrativa de GeminiAI).

La inteligencia artificial es, en esencia, una máquina predictiva que devuelve respuestas plausibles según los datos que procesó, sin cuestionar sus implicancias legales o éticas.

Este fenómeno no pasa desapercibido para la sociedad. En una encuesta realizada en 2023 por la Universidad de Santa Clara, en California, el 82% de las personas manifestó preocupación por la ética en la IA. Lo que es todavía más alarmante es que el 55% de los encuestados considera que las empresas desarrolladoras no están haciendo lo suficiente para resolver este problema.

La urgencia de establecer marcos regulatorios adecuados crece a medida que la IA se expande hacia sectores clave. Pero, hasta el momento, la regulación especializada brilla por su ausencia. En la Argentina, al igual que en muchos países de Latinoamérica, todavía no existe una legislación específica sobre inteligencia artificial.

¿Quién responsable si la IA ayuda a cometer un delito?

Desde el punto de vista jurídico, la responsabilidad penal requiere dolo o culpa: es decir, intención o negligencia. Como la IA no tiene voluntad ni entendimiento, no puede ser considerada responsable en términos penales.

“La inteligencia artificial no puede ser cómplice de un delito”, explicó el fiscal especializado en ciberdelitos Lucas Moyano a TN Tecno. “Desde el derecho penal, la IA carece de elementos esenciales para atribuirle responsabilidad: no tiene conciencia, intención ni libre albedrío en sentido humano”, sostuvo.

La responsabilidad penal se basa en la capacidad de comprender que una conducta es antijurídica y actuar conforme a esa comprensión: “Por esos motivos, que la IA no puede ser imputable”.

Esto no significa que no pueda ser utilizada como herramienta para delinquir. En ese caso, la responsabilidad recae en las personas humanas: “En primer lugar, en el autor del hecho, es decir, quien usa la IA como instrumento para cometer el delito”, detalló el fiscal. Pero también pueden analizarse otros grados de responsabilidad.

“El programador o desarrollador podría ser responsable si creó el sistema con la intención de facilitar delitos, o si actuó con una imprudencia o negligencia grave en su diseño o supervisión”, agregó Moyano. En ese sentido, abrió la posibilidad de que también se evalúe la responsabilidad penal de una persona jurídica —por ejemplo, una empresa— si se comprueba que la IA fue utilizada con fines ilícitos que beneficiaban directamente a esa organización.

En la Argentina, la Ley N.º 27.401 establece un marco legal para la responsabilidad penal de las personas jurídicas en delitos como cohecho, tráfico de influencias o negociaciones incompatibles con la función pública. Si una IA es utilizada en ese contexto, la empresa podría ser alcanzada por la ley, siempre que se pruebe que actuó con interés o beneficio propio, sostuvo el fiscal.

Moyano destacó que no hay que olvidar el rol del supervisor del sistema. “Si existía un deber de control sobre el uso de la IA y no se ejerció de manera adecuada, también se podría evaluar su responsabilidad”, concluyó el fiscal.

Esta mirada es compartida por organismos internacionales como la OCDE, que en su marco de principios para la IA (2019) establece: “Los actores humanos deben ser responsables de los sistemas de IA, especialmente cuando sus decisiones tienen impacto legal o ético”.

Cómo evitar que la IA sea usada para delinquir

La clave está en trabajar sobre las vulnerabilidades del sistema. Como ya se está viendo, cuanto más se utiliza la IA, más atractiva se vuelve para los ciberatacantes. Una investigación reciente de Tenable Research reveló que más del 70% de las cargas de trabajo en la nube (servidores virtuales, bases de datos, aplicaciones web, sistemas de análisis de datos, etc.) que incluyen IA presentan vulnerabilidades críticas. Un número notablemente mayor que las que no se basan ni se apoyan en inteligencia artificial.

Para prevenir estos escenarios, desde Cloud Legion destacaron la necesidad de implementar políticas de gobernanza de datos y gobernanza algorítmica. Esto incluye garantizar la calidad y seguridad de los datos que alimentan los modelos, pero también monitorear en forma constante cómo se comportan y qué aprenden con el tiempo.

Otra medida clave es el uso de filtros contextuales inteligentes. No basta con bloquear palabras clave o frases sospechosas: se necesita que los sistemas comprendan la intención detrás de una solicitud, y que puedan adaptarse dinámicamente a nuevos riesgos. También se propone una auditoría constante del comportamiento de los modelos, ya que un sistema que hoy parece seguro puede incorporar patrones problemáticos a futuro si no se controla de manera adecuada.

El factor humano sigue siendo central

En la actualidad, las herramientas de inteligencia artificial, chatbots, apps generativas y asistentes automatizados no saben si lo que están haciendo es ilegal. Ese es, tal vez, el punto más importante de esta discusión.

Por eso, además de políticas tecnológicas, son necesarias decisiones humanas conscientes: diseñadores, desarrolladores, usuarios y legisladores deben involucrarse activamente para evitar usos maliciosos.

Mientras tanto, la legislación corre detrás. El desafío está en construir una arquitectura legal que equilibre la innovación con la protección de derechos, y que permita atribuir responsabilidades de manera justa cuando la tecnología —como la IA— se convierte en un actor más en escenarios complejos.

Si todavía no recibís las noticias de PRIMERA PLANA en tu celular, hacé click en el siguiente enlace https://bit.ly/3ndYMzJ y pasarás a formar parte de nuestra base de datos para estar informado con todo lo que pasa en la ciudad y la región.