Un grupo internacional de expertos en salud advierte sobre los peligros de la IA
MIÉRCOLES, 10 de mayo de 2023 (HealthDay News) -- La investigación y el desarrollo de la inteligencia artificial (IA) debería frenarse hasta que su uso y tecnología se regulen de forma adecuada, planteó un grupo internacional de médicos y expertos en salud pública.
Ciertos tipos de IA plantean una "amenaza existencial para la humanidad", escribieron los expertos en la edición del 9 de mayo de la revista BMJ Global Health. El grupo, dirigido por el Dr. Frederik Federspiel, de la Escuela de Higiene y Medicina Tropical de Londres, en Reino Unido, incluyó a expertos de Estados Unidos, Australia, Costa Rica y Malasia.
La IA tiene un potencial transformador para la sociedad, lo que incluye a la medicina y a la salud pública, pero también se puede abusar de ella, y podría tener varios impactos negativos, aseguraron.
Los expertos advirtieron que la capacidad de la IA de limpiar, organizar y analizar con rapidez grupos de datos, lo que podría incluir datos e imágenes personales, plantea la posibilidad de que se use para manipular la conducta y socavar la democracia.
Ya hay ejemplos, anotaron. La IA se utilizó de esta forma en las elecciones presidenciales de 2016 en EE. UU., en las elecciones presidenciales de 2017 en Francia, y en las elecciones en Kenia en 2013 y 2017, reportaron los expertos.
"Cuando se combina con la capacidad, en rápida mejora, de distorsionar o tergiversar la realidad con ultrafalsos, los sistemas de información basados en la IA podrían socavar incluso más la democracia, al provocar una desconfianza general o promover la división y el conflicto sociales, con los impactos resultantes para la salud pública", advirtieron los autores.
La vigilancia basada en IA se puede utilizar para controlar y oprimir a las personas, añadieron. El sistema de crédito social chino es un ejemplo, que combina el reconocimiento facial con el análisis de repositorios de "macrodatos" de las transacciones financieras, los movimientos, los expedientes policiales y las relaciones sociales de las personas, según el informe.
Al menos 75 países han estado expandiendo estos tipos de sistemas, incluso democracias liberales, apuntó el equipo.
Otra área de amenaza es el desarrollo de sistemas de armas autónomos letales (LAWS, por sus siglas en inglés). Vinculados con pequeños dispositivos móviles, por ejemplo drones, pueden ubicar, seleccionar y dirigirse a objetivos humanos sin supervisión humana. Podrían matar a personas "a escala industrial", explicaron los autores.
En la próxima década, el uso generalizado de la IA también podría costar entre decenas y cientos de millones de empleos.
"Aunque acabar con el trabajo que es repetitivo, peligroso y desagradable podría ofrecer muchos beneficios, ya sabemos que el desempleo se asocia fuertemente con unos resultados y conductas de salud adversos", afirmaron los autores.
Una creciente automatización tiende a desviar los ingresos y la riqueza a los propietarios, y contribuye a una distribución desigual de la riqueza en el planeta, observaron.
"Tampoco sabemos cómo responderá la sociedad, psicológica y emocionalmente, a un mundo donde no haya trabajo disponible o no sea innecesario, y tampoco estamos pensando mucho sobre las políticas y estrategias que serían necesarias para romper la asociación entre el desempleo y la mala salud", escribieron los autores.
La inteligencia artificial general (IAG) con automejora para fines generales es una gran amenaza. Podría aprender y realizar toda la variedad de tareas humanas, explicaron los expertos en un comunicado de prensa de la revista.
"Ahora buscamos crear máquinas que sean inmensamente más inteligentes y poderosas que nosotros mismos", escribieron. "El potencial de que estas máquinas apliquen esta inteligencia y poder (a propósito o no) de formas que pudieran dañar o subyugar a los humanos, es real y se debe tomar en cuenta".
Si se lleva a cabo, la conexión de la IAG a internet y el mundo real, incluso a través de los vehículos, robots, armas y sistemas digitales bien podría, enfatizaron, representar el "mayor evento en la historia de la humanidad".
La oportunidad para evitar unos daños graves y potencialmente existenciales se está agotando, advirtieron los autores.
"Los resultados futuros del desarrollo de la IA y la IAG dependerán de las decisiones políticas que se tomen ahora, y de la efectividad de las instituciones reguladoras que diseñemos para minimizar el riesgo y el daño, y maximizar el beneficio", escribieron.
Esto requerirá acuerdos y cooperación internacionales, y evitar una "carrera armamentista" de la IA, sugirió el equipo.
"Si la IA va en algún momento a cumplir su promesa de beneficiar a la humanidad y a la sociedad, debemos proteger la democracia, fortalecer las instituciones que velan por el interés público, y diluir el poder de forma que haya unos sistemas de controles y equilibrios efectivos", concluyeron los expertos. "Esto incluye garantizar la transparencia y la responsabilidad de las partes del complejo militar-industrial corporativo que promueven los desarrollos en la IA y las compañías de redes sociales, que están permitiendo que la desinformación dirigida promulgada por la IA socave a nuestras instituciones democráticas y el derecho a la privacidad".
Más información
Aprenda más sobre la Iniciativa Nacional de Inteligencia Artificial (National Artificial Intelligence Initiative).
Artículo por HealthDay, traducido por HolaDoctor.com
FUENTE: BMJ Global Health, news release, May 9, 2023
Related Posts
Aspirin Underused in Secondary Prevention of Cardiovascular Disease
THURSDAY, Aug. 24, 2023 (HealthDay News) -- Aspirin is underused in secondary...
Recently Discharged Patients Pose Risk for Spreading C. Difficile Infection
FRIDAY, April 15, 2022 (HealthDay News) -- Asymptomatic patients recently...
Flesh-Eating Bacteria Kills Three People in Connecticut, New York
THURSDAY, Aug. 17, 2023 (HealthDay News) -- Public health officials are warning...
Redo Transcatheter Aortic Valve Replacement Safe, Effective
MONDAY, Sept. 11, 2023 (HealthDay News) -- Redo transcatheter aortic valve...