
- La Inteligencia Artificial (IA) se ha convertido en una herramienta que tiene el potencial de transformar significativamente el desarrollo de la industria y las rutinas de la vida cotidiana. Paradójicamente, este enorme potencial también puede ser utilizado para usos indebidos; de modo que surge la necesidad de instalar discusiones y normativas para garantizar que este potencial sea utilizado en beneficio de la sociedad.
¿Qué es la inteligencia artificial?
Para entrar en el terreno ético de la IA es importante entender qué es y cómo funciona. En este sentido, la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO (2019) define la IA como “máquinas o sistemas capaces de imitar ciertas funcionalidades de la inteligencia humana”.
En este sentido, nos centraremos en las preocupaciones y pautas éticas específicas para la IA generativa, Generative Pre-trained Transformer (GPT), que es un modelo de aprendizaje profundo capaz de generar contenido (texto, imágenes y voz) a partir de un proceso de entrenamiento previo de datos y la transformación de esos datos de forma coherente y similar al lenguaje humano.
Criterios para el uso ético de la IA
Para abordar los riesgos asociados con el uso de la IA, se presentan un conjunto de criterios clasificados en dos perspectivas: la social y la personal. Además, estos criterios han sido inspirados por las directrices éticas de la Unión Europea y la experiencia propia en el uso de la IA:
- Perspectiva social: se refiere al enfoque que aborda los aspectos éticos y prácticos relacionados con el uso de la IA desde un nivel más amplio que abarca el impacto social, las políticas y las regulaciones institucionales:
- Privacidad: Esto implica asegurar que los datos personales sean tratados de manera confidencial, ética y conforme a las leyes de protección de datos (UE, 2022).
- Transparencia: implica la apertura y claridad en el funcionamiento de los sistemas de IA, incluyendo la capacidad de rastrear cómo se obtienen los resultados (trazabilidad), explicar las decisiones (explicabilidad) y garantizar que la información sea comprensible y accesible para todos los involucrados (comunicar) (UE, 2022).
- Diversidad, no discriminación y equidad: se debe garantizar la accesibilidad, el diseño universal, la prevención de sesgos injustos y la participación de todas las partes interesadas, para facilitar su uso sin importar la edad, el género, las capacidades o las características de las personas. (UE, 2022)
- Solidez técnica y seguridad: se refiere a la protección general de los sistemas y datos, así como, a la necesidad de garantizar resultados correctos y confiables (UE, 2022).
- Marcos regulatorios y normas éticas: Desarrollar regulaciones a nivel institucional, nacional e internacional para guiar el uso responsable de la IA.
- Perspectiva personal: se centra en las personas y sus acciones individuales con respecto al uso de la inteligencia artificial:
- Referenciar fuentes: Es necesario atribuir correctamente el contenido extraído de la IA, siguiendo las normas establecidas. Las normas APA (séptima edición), por ejemplo, sugieren que se debe indicar el prompt (pregunta o comentario) y las respuestas obtenidas.
- Uso responsable y crítico: El contenido generado por la IA puede ser valioso para el aprendizaje; sin embargo, es importante no depender exclusivamente de ésta. Se debe fomentar una actitud crítica y reflexiva, evaluando la información de manera cuidadosa y considerando múltiples perspectivas antes de sacar conclusiones.
- Comprobar la información: Verificar siempre la información generada por la IA para asegurarse de su exactitud y relevancia, incluyendo la autoridad, objetividad, actualidad y calidad de la información. Es vital que la información proporcionada por la IA sea fiable y relevante. Los usuarios deben evaluar la responsabilidad del sitio, confirmar la información en múltiples fuentes y asegurar que la información sea actual y correctamente escrita.
- Utilizar herramientas de comprobación y corrección: Emplear herramientas de verificación y detección de plagio como: GPTZero y Duplichecker. Además, se puede emplear ChatGPT para generar y validar contenido, así como, Quillbot para corregir la ortografía. Estas herramientas permiten la revisión y mejora de la calidad de los textos.
La IA tiene un enorme potencial para mejorar nuestras vidas, pero su aprovechamiento depende de nuestra responsabilidad y honestidad. Debemos ser conscientes de los sesgos, proteger la privacidad, asegurar la transparencia y garantizar que la IA beneficie a toda la sociedad sin causar daño. La ética en la IA no es sólo una opción, sino una necesidad para el desarrollo sostenible y equitativo de la tecnología.
Autores:
Rosa Rao C., docente de la carrera Ingeniería en Informática
Rodrigo Molina S., coordinador de E-Learning
IP-CFT Santo Tomás, sede Rancagua










Comments