jueves, 23 de octubre de 2025

Piden poner fi n al desarrollo de “la superinteligencia artificial”

  Piden poner fi n al desarrollo de “la superinteligencia artifi cial” Personalidades señalan que falta consenso científi co para crearla bajo control AFP PARÍS Más de 700 científicos, personali dades políticas y famosos pidieron que se ponga fin al desarrollo de una inteligencia artificial (IA) que pueda superar las capacidades humanas. “Hacemos un llamamiento para que se detenga el desarrollo de una superinteligencia, hasta que exista consenso científico para construir la de forma controlada y segura, y mientras no exista el apoyo de la población”, indica la página de la iniciativa lanzada por Future of Li fe Institute, una organización sin ánimo de lucro con sede en Estados Unidos que advierte sobre los efec tos nocivos de la IA. Entre los firmantes se encuen tran varios creadores de la IA moderna, como Geoffrey Hinton, Nobel de Física en 2024; Stuart Russell, profesor de informática en la Universidad de California en Berkeley, y Yoshua Bengio, profesor de la Universidad de Montreal. La lista también incluye persona lidades destacadas del mundo de la tecnología como Richard Branson, fundador del grupo Virgin, y Steve Wozniak, cofundador de Apple; fi guras políticas como Steve Bannon, ex asesor del presidente estaduni dense Donald Trump, y Susan Rice, consejera de seguridad nacional bajo el mandato de Barack Oba ma. También firman responsables religiosos como Paolo Benanti, ase sor del Papa y principal experto del Vaticano en IA, y famosos como el cantante estadunidense will.i.am. Marco regulatorio La mayoría de las grandes empre sas de la IA buscan desarrollar la inteligencia artificial general (IAG), una etapa en la que esta tecnología igualaría todas las capacidades in telectuales de los humanos, pero también la superinteligencia, que iría más allá. Para Sam Altman, director gene ral de OpenAI, empresa creadora de ChatGPT, el umbral de la super inteligencia podría alcanzarse en un plazo de cinco años, según dijo en septiembre. “Da igual que sea dentro de dos o 15 años, construir algo así es in aceptable”, declaró a Afp Max Teg mark, presidente de Future of Life Institute, para quien las empresas no deberían trabajar en este tipo de proyectos “sin ningún marco regulatorio. “Se puede estar a favor de la creación de herramientas de inte ligencia artificial más potentes, por ejemplo, para curar el cáncer, y al mismo tiempo estar en contra de la superinteligencia”, añadió.

No hay comentarios:

Publicar un comentario