La tecnología es una herramienta que cada vez es más accesible para la sociedad en general, pero depende de los humanos utilizarla ética y responsablemente.
Todos@Cicese / Edición 4V
Depende de los humanos utilizar la IA ética y responsablemente (Imagen en Gaceta UNAM).
Resistirse al uso de la inteligencia artificial (IA) es inútil. Por ello, hay que reconocer los beneficios y potencialidades que el uso de la inteligencia artificial generativa puede tener en la academia, pero también los riesgos de daño y prejuicio, por lo cual hay que actualizar códigos de ética e incidir en el análisis y el pensamiento crítico que orienten sus usos creativos.
En ello coincidieron los panelistas que participaron en el evento “El uso de la Inteligencia Artificial Generativa en el quehacer científico: cómo funciona, sus beneficios y riesgos”, que organizó recientemente la División de Física Aplicada del Centro de Inestigación Científica y de Educación Superior de Ensenada (CICESE).
En él participación de José Antonio García Macías y Edgar Chávez González, investigadores del Departamento de Ciencias de la Computación de este centro; Isabel López Hurtado, posdoctorante en psicología educativa visitante en el CICESE e Isabel Pérez Montfort, traductora y editora de textos científicos adscrita al Centro de Nanociencias y Nanotecnología de la UNAM.
Recordaron que la Organización para la Cooperación y el Desarrollo Económicos (OCDE) define a la IA como sistemas basados en máquinas que pueden realizar predicciones, hacer recomendaciones o tomar decisiones que influyen en entornos reales o virtuales.
También que esta tecnología no es nueva, pero cada vez se vuelven más accesibles para la sociedad en general y recientemente se ha popularizado una gran variedad de herramientas de Inteligencia Artificial Generativa (IAG) que destacan por su capacidad de generar datos y crear contenido autónomamente –imágenes, texto, música, voz, datos– en tiempo real a partir de la instrucción humana.
Un ejemplo es ChatGPT (Chat Generative Pre-Trained Transformer), lanzado a fines de 2022, y la atención que acaparó socialmente.
Los panelistas (Cortesía).
Los expertos enfatizaron que entre los riesgos está la privacidad de datos, los sesgos, la equidad en el acceso a estas tecnologías y el plagio, entre otros.
Esto porque “el chat GPT trabaja con base en probabilidades y ahora el problema más grande es el de la imputación”, señaló Edgar Chávez González quien recordó la historia de un abogado estadounidense que utilizó ChatGPT sin contrastar la respuesta.
Durante el proceso judicial se reveló que la respuesta proporcionada por ChatGPT no estaba respaldada por la jurisprudencia actualizada, no reflejaba la interpretación jurídica vigente y por lo tanto la fundamentación carecía de base y no fue aceptada por el tribunal.
“Las instituciones deben formar grupos multidisciplinarios de trabajo –especialistas en ciencias computacionales, educación, filosofía, humanidades– para crear guías que orienten y normen el uso de la inteligencia artificial”, recomendó José Antonio García Macías.
Por su parte, Isabel Pérez Montfort dijo que escribir textos científicos no es fácil.
“Se necesita claridad, concreción y una estructura adecuada para transmitir el conocimiento, y dado que la ciencia se publica en inglés, para los estudiantes representa un reto escribir en español y traducir al inglés. Por ello, son bienvenidas herramientas que apoyen esta labor”.
Al respecto, Isabel López Hurtado coincidió al destacar que estas tecnologías representan un apoyo importante, pero hay que tener precaución y no confiar plenamente en éstas.
“Siempre hay que tener un juicio crítico ya que las nuevas tecnologías representan una extensión de nuestros aprendizajes y una oportunidad para saber más”.
Comments