Ir al contenido

Curso taller sobre Inteligencia Artificial y Universidad

El 15 de mayo se realizó el curso «Inteligencia Artificial y Universidad. ¿Cómo pensar y aplicar de forma ética, efectiva y segura?», a cargo del doctor Martín Ariel Gendler. También se dicta, con el mismo nombre, un taller de cuatro encuentros.

El curso estuvo dirigido a las personas que realizan tareas administrativas, técnicas y de servicios de la FTS, con el objetivo general de «aportar herramientas teórico conceptuales y prácticas para un abordaje y aplicación ética, crítica y responsable de desarrollos de Inteligencia Artificial (IA), principalmente de Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés), en la práctica laboral administrativa universitaria, atendiendo a sus principales características, oportunidades y desafíos», tal como se señala en la resolución de referencia.

Esta propuesta también está estructurada en un taller de cuatro encuentros, que inició de forma presencial el viernes 16 de mayo. Luego se dictará bajo modalidad virtual el 23 de mayo (segundo encuentro); el 27 de junio (tercer encuentro); y 4 de julio (cuarto encuentro), de 8:00 a 12:00. El mismo está destinado a las personas que participan de la Mesa de Trabajo ampliada, conforme los criterios de representación de los departamentos y áreas de la facultad.

-Primer encuentro: «Conociendo los LLM. Cuestiones éticas y detección de sesgos».
-Segundo encuentro: «Prompts y flujos de trabajo».
-Tercer encuentro: «Prácticas laborales cotidianas. Solución de dudas e inconvenientes»
-Cuarto encuentro: «Datos: buenas prácticas de preservación, integridad y seguridad».

En comunicación con el Área de Comunicación Institucional de la FTS, el doctor Martín Ariel Gendler, que integra el Programa de Investigaciones sobre la Sociedad de la Información, del Instituto Gino Germani (FSOC-UBA) – CONICET, se refirió a por qué considera que la IA no es inherentemente inteligente: «primero y principal porque funciona de una forma probabilística, es decir, siempre nos va a responder o a producir, a decirnos algo, en función de los datos que tiene disponible para justamente proporcionarnos una respuesta. Es decir, no hay una capacidad de autorreflexión, no hay otro tipo de inferencias, no hay una trayectoria personal, no hay una historia de vida, no hay un contexto necesariamente cultural, porque justamente lo que va a hacer es que cada vez que nosotros le pedimos algo va a ir a buscarlo y nos va a responder lo que puede ser más probable».

Respecto a si la IA es meramente una herramienta, Gendler argumentó que trasciende ese uso. Para él hay «una concatenación de actores… de problemáticas, de las cuales tenemos que estar siempre advertidos y advertidas a la hora de utilizarla. Justamente porque no es inocente, sino que es parte de un engranaje, de una cosa mucho más amplia». Por tanto, hay que utilizarla con cierta conciencia y criticidad. «Nunca, jamás copiemos y peguemos… pero más allá de eso, de lo que nosotros hacemos con el uso, también entendamos todo el trasfondo de esto, porque es fundamental para contextualizarlo en tiempo y espacio».

Fuente: Área de Comunicación Institucional FTS-UNER


Scroll al inicio