Expertos del mundo tecnológico piden cese al fuego en el desarrollo de IAs

219
peligro inteligencia artificial - CMIDE

Personalidades del mundo tecnológico han publicado una carta conjunta; esta advierte del peligro de la actual carrera por la inteligencia artificial en la que están inmersas.

Estos piden que se detenga el entrenamiento de las IAs “más potentes que GPT-4” durante seis meses; y que durante ese tiempo se desarrolle y se emplee un conjunto de protocolos de seguridad compartidos para el diseño de IAs avanzadas que garantice que estas sean seguras.

Las más de 1.000 firmas de esta carta abierta, publicada en la web de la organización sin ánimo de lucro Future of life Institute; se encuentran personalidades como: Elon Musk (CEO de Tesla, SpaceX y Twitter), Steve Wozniak (cofundador de Apple), Jaan Tallinn (cofundador de Skype) y Yuval Noah Harari (autor del éxito de ventas Sapiens: De anímales a hombres), entre otras.

Los participantes reconocen que la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra; pero que debe planificarse y gestionarse con el cuidado y los recursos correspondientes debido al peligro de la inteligencia artificial.

Desafortunadamente, este nivel de planificación y gestión no está sucediendo.

Entienden que los sistemas de inteligencia artificial ya son competitivos con los humanos en tareas generales; por lo que cabe plantearse cuestiones como:

¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?

¿Deberíamos automatizar todos los trabajos, incluidos los que nos satisfacen?

¿Estaríamos de acuerdo en desarrollar mentes no humanas que eventualmente podrían superarnos en número; ser más inteligentes, hacernos obsoletos y reemplazarnos?

¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

La carta señala que a estas preguntas no deben responder los líderes tecnológicos y que los sistemas de IAs avanzados solo deben desarrollarse una vez se este seguro de que sus efectos serán positivos y sus riesgos serán manejables.

Por esta razón solicitan a las empresas y laboratorios de inteligencia artificial que pausen el entrenamiento de sistemas avanzados más poderosos que GPT-4.

Se pide que ese tiempo sea empleado para que laboratorios y expertos independientes desarrollen el mencionado; el conjunto de protocolos de seguridad y que éste sea auditado por otros expertos independientes.

También abogan por el desarrollo de políticas para la gobernanza de las IAs que incluyan nuevas autoridades reguladoras sobre este campo, supervisión y seguimiento de los sistemas avanzados de IAs y de los grandes centros de datos en los que operan.

Un sistema de marcas de agua para distinguir las imágenes sintéticas de las reales, un ecosistema de auditoria y certificación, un mecanismo de responsabilidad de daños generados por las IAs y financiación pública para investigación en la seguridad de las inteligencias artificiales.

Continúe leyendo: Buenas nuevas no tan buenas para la economía estadounidense 

“Nasar