Uso responsable de herramientas de IA: una guía para ingenieros de sistemas
Uso responsable de herramientas de IA: una guía para ingenieros de sistemas
Introducción
Vivimos una era en la cual las herramientas de inteligencia artificial (IA) ya no son solo laboratorio, sino que impactan en la vida profesional de los ingenieros de sistemas: desde generar código, redactar textos, hasta apoyar en decisiones de negocio o técnicas. Sin embargo, junto a su poder vienen responsabilidades éticas que no pueden ignorarse. Para los ingenieros de sistemas, el reto ya no es simplemente “hacer que funcione”, sino “hacer que funcione bien, para todos, sin perjudicar”.
¿Por qué importa?
Una IA mal utilizada puede provocar errores graves, decisiones injustas u opacas, filtración de datos o pérdida de confianza en la tecnología. Por el contrario, una IA usada de forma ética puede potenciar nuestro trabajo, ahorrar tiempo, mejorar la calidad, e incluso contribuir al bien común.
Ejemplo clave en Colombia
En 2023 un juzgado en Cartagena usó la herramienta ChatGPT para redactar parte de una sentencia de tutela. En el texto del fallo se incluyeron preguntas hechas a la IA y su respuesta, como: “¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias?” y la IA respondió afirmativamente, citando normas inexistentes. El Tiempo+2Ambito+2
La polémica generó que la Corte Constitucional de Colombia revisara el uso de la IA en decisiones judiciales y estableciera que “no es admisible incluir en providencias textos generados por IA sin verificación”. El Colombiano+1
Este caso muestra claramente que la IA no sustituye al profesional; puede asistir, pero no reemplazar el juicio humano, la verificación, la ética técnica.
Consecuencias del mal uso de la IA
-
Errores de veracidad o “alucinaciones”: la IA puede generar frases, citas o datos que no existen. Como en el caso: citas falsas de jurisprudencia.
-
Falta de trazabilidad: no se entiende por qué la IA decidió tal o cual frase.
-
Pérdida de responsabilidad profesional: si el ingeniero o profesional delega sin supervisión, se diluye la responsabilidad.
-
Vulneración de derechos o regulaciones: tratamiento de datos personales, privacidad, seguridad, discriminación de algoritmos.
-
Desconfianza tecnológica: cuando la IA comete errores públicos, se mina la confianza en sistemas más amplios.
Buenas prácticas para ingenieros de sistemas
Para usar la IA responsablemente, aquí algunas guías:
-
Verificación humana: todo resultado de IA debe ser revisado, validado y confirmado por un profesional.
-
Transparencia: documentar cuándo se usó IA, qué preguntas se plantearon, qué datos se usaron, y qué verificación se hizo.
-
Trazabilidad y explicabilidad: elegir modelos o arquitecturas que permitan entender por qué la IA generó una respuesta.
-
Minimización de datos y privacidad: si la IA trabaja con datos personales, aplicar principios de protección de datos, anonimización, y cumplir con la legislación aplicable.
-
Consentimiento y ética de datos: si usas datos de terceros, obtener permiso, explicar su uso, evitar sesgos.
-
Diseño ético desde el inicio (“IA by design”): incorporar criterios éticos desde el diseño del sistema, no como añadido.
-
Capacitación continua: mantenerse actualizado en regulaciones, limitaciones de IA, mejores prácticas, ética profesional.
Para los ingenieros de sistemas: reflexiones clave
-
¿Qué parte de tu trabajo podría automatizarse con IA y cuáles deberían quedar bajo supervisión humana?
-
¿Cómo aseguras que un sistema de IA que desarrollas no reproduce sesgos, errores o decisiones incorrectas?
-
¿Estás preparado para asumir la responsabilidad técnica y ética del sistema que construyes, incluso cuando partes fueron generadas por IA?
Conclusión
La IA es una poderosa herramienta que los ingenieros de sistemas pueden usar para potenciar su trabajo, pero no sustituye la profesionalidad, el juicio ético ni la responsabilidad técnica. El uso responsable de IA significa transparencia, verificación, protección de datos y diseño consciente. Como ingenieros, nuestra meta no solo es “hacer que la IA funcione”, sino “hacer que funcione bien, para todos”.
Referencias
-
“Juez de Cartagena usó ChatGPT en sentencia de tutela” – El Tiempo, 03 feb 2023. El Tiempo
-
“Polémica en Colombia con un juez que usó ChatGPT para una sentencia” – Ámbito, 02 feb 2023. Ambito
-
“El fallo hecho con IA que citó frases que no existen” – El Colombiano, 18 nov 2025. El Colombiano
-
“Uso de ChatGPT para redactar fallos judiciales en Colombia no es confiable y su uso no es idóneo” – Infobae, 05 feb 2023. infobae
Comentarios
Publicar un comentario