REGULAR, NO SUPRIMIR

HUGO MAGUEY

Resumen


LAS INTELIGENCIAS ARTIFICIALES DEBEN SER REGULADAS, “LAS NUEVAS TECNOLOGÍAS NO SE PUEDEN DEJAR LIBRES”, CONSIDERA JESÚS SAVAGE CARMONA, PROFESOR E INVESTIGADOR DE LA FACULTAD DE INGENIERÍA DE LA UNIVERSIDAD NACIONAL. CUANDO “APARECIERON LOS AUTOMÓVILES NO EXISTÍAN REGLAMENTOS, EL TRÁNSITO ERA LIBRE, HASTA QUE EMPEZARON LOS CHOQUES Y SE HIZO UN REGLAMENTO. AQUÍ SERÁ EL MISMO PROCESO: SE DEBE TENER UN REGLAMENTO. NO ES LA HERRAMIENTA, SINO EL USO QUE SE LE DA, A LO QUE HAY QUE TENERLE CUIDADO”. EL ACADÉMICO RECUERDA QUE SEMANAS ATRÁS, ELON MUSK, FUNDADOR DE TESLA, STEVE WOZNIAK, COFUNDADOR DE APPLE, Y MÁS DE MIL EXPERTOS HICIERON UNA CARTA EN LA QUE PIDEN DETENER EL DESARROLLO DE SISTEMAS DE INTELIGENCIA ARTIFICIAL PODEROSOS, COMO ES EL CASO DE CHATGPT. “LO QUE DEBEMOS PREGUNTARNOS NO ES SI ES PELIGROSO PER SE, SI NO ¿POR QUÉ LO PIDIERON, Y QUÉ PELIGROS REPRESENTAN PARA ELLOS?” EL INVESTIGADOR SEÑALA QUE EL PROBLEMA CON SISTEMAS COMO CHATGPT ES QUE PUEDE PROLIFERAR LA DESINFORMACIÓN Y LA PROPAGANDA, ADEMÁS DE QUE SE CONVIERTEN EN UN MONOPOLIO DE MANEJO DE LA INFORMACIÓN. ES DECIR, FALTA TRANSPARENCIA DE LOS DESARROLLADORES, LO QUE PUEDE DERIVAR EN QUE SE CONVIERTA EN UN MECANISMO PARA MANIPULAR LA INFORMACIÓN. EXPLICA QUE EL CHATGPT REALIZA LA BÚSQUEDA POR TI Y TE DA UN RESUMEN, SE CORRE UN RIESGO DE QUE TÚ COMO HUMANO NO PUEDES SELECCIONAR LA INFORMACIÓN CORRECTA. CONCLUYE QUE ES COMO “UN BUSCADOR POTENCIADO, UN BUSCADOR QUE CUANDO LE METES UNA ORACIÓN GENERA OTRAS ORACIONES; NO TIENE CONCIENCIA Y HAY QUE DECLARARLO, ES SÓLO UN GENERADOR DE ORACIONES”. POR SU PARTE, MAURICIO JACOBO, EGRESADO DE LA FACULTAD DE INGENIERÍA Y CANDIDATO A DOCTOR EN INTELIGENCIA ARTIFICIAL POR LA UNIVERSIDAD DE MANCHESTER, HABLA DEL SESGO QUE PUEDE HABER EN LA PROGRAMACIÓN DE ESTAS HERRAMIENTAS: “EL PROBLEMA NO ES LA HERRAMIENTA, SINO QUE LA HUMANIZAMOS DEMASIADO. ENTRE EL MARKETING Y LA DESINFORMACIÓN ESTÁN CREANDO MUCHO MIEDO Y FE AL MISMO TIEMPO. SE LE ESTÁN AGREGANDO ATRIBUTOS HUMANOS A UN SISTEMA QUE SE BASA EN LA PROBABILIDAD DE LAS PALABRAS EN UNA SELECCIÓN DE TEXTOS”. NO ES QUE EL SISTEMA SEA RACISTA, ABUNDA, “SINO QUE LA INFORMACIÓN PARA ENTRENAR ESA IA ES RACISTA. PARA ENTRENARLA SE NECESITA INFORMACIÓN QUE NO PUEDE SER IMPARCIAL PORQUE TODAS NUESTRAS TENDENCIAS VAN A SALIR. EL PELIGRO ES QUERER UTILIZAR LA HERRAMIENTA PARA TOMAR DECISIONES. POR ESA RAZÓN, YA HAY FILÓSOFOS QUE ANALIZAN QUÉ CUALIDADES DEBE TENER LA INFORMACIÓN PARA ENTRENAR ESTOS SISTEMAS. CAMBRIDGE YA TIENE UN PROGRAMA DE IA Y ÉTICA, QUE SEGURO SE REPLICARÁ PRONTO EN OTRAS UNIVERSIDADES”, INDICA EL EXPERTO.


Palabras clave


INTELIGENCIA ARTIFICIAL; REGULACIÓN; NUEVAS TECNOLOGÍAS; PELIGRO; CHATGPT; DESINFORMACIÓN; PROPAGANDA; HERRAMIENTA; BUSCADOR; MARKETING; ATRIBUTOS HUMANOS; PROBABILIDAD; PALABRAS; RACISMO; TOMA DECISIONES; FILÓSOFOS; CAMBRIDGE; ÉTICA; UNIVERSIDADES

DB Error: Table './gacetaunam/referrals' is marked as crashed and should be repaired