Editorial: Inteligencia artificial, o lo artificial de la inteligencia

Roberto A. Rovasio

Resumen


La Inteligencia Artificial (IA), un nuevo El Dorado de la ciencia, involucra materias antes poco vinculadas (matemáticas, física, informática, biología, medicina, sociología). Es también la vedette periodística, aún poco conocida por la sociedad llevada al límite entre ciencia y fantasía(Burch, 2017; Castelvecchi, 2023; Hutson, 2022; Owens, 2023; Schwalbe y Wahl, 2020; The Lancet, 2017; University World News, 2023).

 

Una combinatoria de disciplinas que rinde gran capacidad digital, automatismo y velocidad para la toma de decisiones no humanas. Sería un “sistema de auto-aprendizaje”, pero no hay explicación para muchas decisiones tomadas por máquinas fuera del control humano. Y aunque la IA es eficiente para controlar mercaderías, tránsito ciudadano o líneas de producción ‒lejos de teorías conspirativas‒ no es lo mismo que controlar información personal, seguridad individual, familiar, nacional y planetaria (Bagenal, 2024; Stokel-Walker, 2022; Stokel-Walker, 2023a; Stokel-Walker, 2023b).

 

Asociada al Big Data, la IA también tiene enorme poder para conocer información e inducir conductas. Se sabe que menos de 100 likes permiten predecir color de piel, orientación sexual y opinión política del usuario. Para algunos, explicó cómo ganaron elecciones algunos presidentes (Alconada, 2019; Tufekci, 2018).

 

Lejos de la ciencia-ficción (Berreby, 2024; MacGregor, 2024) la idea de IA como “máquinas que aprenden de máquinas” sin equilibrar valores científicos y éticos, es sin duda un mecanismo persuasivo de los poderes reales del planeta. Así, aceptando el lado positivo de la IA con control social, sería demencial desconocer esta herramienta y su potencial para incentivar la meta de máximas ganancias a expensas del interés público, los derechos humanos y la soberanía en cualquiera de sus categorías(Callaway, 2024; Carter et al., 2024; Dybul, 2023; Rovasio, 2019; Rovasio, 2024; Stokel-Walker, 2023b).

 

La IA y su capacidad non sancta

 

A poco de nacer, la IA mueve cifras multimillonarias en biomedicina, seguridad, informática, vigilancia y medios de comunicación, combinados y esperando suculentos dividendos sin regulación ética. Su impacto sobre los ciudadanos son objeto de críticas, pero se avanza sobre lo realizado sin control social (Bagenal, 2024; Callaway, 2024; Dybul, 2023).

 

Así, algunos investigadores se preguntaron: ¿Qué pasaría si a un sistema de IA, se le propone detectar armas químicas? (Callaway, 2024; Dybul, 2023). Y lo hicieron, en una institución científica suiza, “instruyeron” a la máquina para pesquisar neurotóxicos y proponer moléculas similares. Al cabo de pocas horas, el resultado horrorizó a los científicos. Su monitor mostraba más de 40 mil compuestos tanto o más tóxicos que la molécula modelo, y al reconocer haber cruzado un límite ético, manifestaron: “poder borrar las miles de moléculas que pudieran crearse, aunque sin poder borrar el conocimiento de cómo recrearlas” (Urbina et al., 2022). Una pregunta [nuestra]: ¿Las habrán borrado?

 

Otras recientes noticias cubren el planeta: un sistema de IA (ChatGPT y sus derivados), puede escribir “a pedido”, informes científicos o papers (ChatGpt y Zhavoronkov, 2022; ChatGpt et al., 2022; Else, 2023; Hutson, 2022; Májovský et al., 2023; Stokel-Walker, 2022; Stokel-Walker, 2023a; Stokel-Walker, 2023b; University World News, 2023). Aparte de proyectos o hipótesis de trabajo, puede “fabricar” resultados de supuestas investigaciones inexistentes. Fraude científico comprobado en publicaciones de prestigiosos jounals, con el nombre del sistema como coautor del trabajo y sin que pudiera ser advertido por los revisores humanos (Alconada, 2019; Bagenal, 2024; ChatGpt y Zhavoronkov, 2022; ChatGpt et al., 2022; Else, 2023; Hutson, 2022; Májovský et al., 2023; Stokel-Walker, 2022; Stokel-Walker, 2023a). El mismo sistema casi logró “graduarse de médico” en el Examen de Licencia Médica de EE.UU., al obtener 52% y 75% de respuestas correctas, sobre el umbral de aprobación de 60% (Kung et al., 2023; O’Connor y ChatGPT, 2023; RT Notiicas, 2023; United States Medical Licensing Examination - USMLE, 2023).

 

Revolución en ciencias y educación superior

 

Para el público general, la IA podría parecer, hasta un divertimento. Pero puede ser catastrófico para la ciencia y la sociedad, desde que la publicación es la base del sistema científico-tecnológico, al exponer datos que deberán ser corroborados (o no) por otros científicos, quienes se convierten en controladores sociales de la ciencia y sus aplicaciones (MacGregor, 2024; Rovasio, 2019; Rovasio, 2024).   

 

En una encuesta de la revista Nature, se preguntó a miles de lectores: ¿Se debe permitir a los investigadores usar ChatGPT para ayudar a escribir artículos? Las respuestas fueron: No = 58%, Sí = 37% y Otros = 5% (Else, 2023). Y una temprana reacción institucional lo brindó el Instituto de Estudios Políticos de París (Sciences Po), prestigiosa universidad de ciencias sociales, donde su uso fue prohibido, por la posibilidad de fraude y plagio (MacGregor, 2023). (18) Y la Unión Europea acaba de aprobar un proyecto de ley regulador de la IA, pero que se aplicará recién desde 2026 (¡?) (MacGregor, 2024).

 

Muchas respuestas de científicos o instituciones de educación superior, reflejan el temor de ser censurados como “anti-modernos” si se oponen a este tipo de tecnologías (Owens, 2023). Y cuando la University World News preguntó al propio programa ChatGPT sobre su impacto en la educación superior, la respuesta explayó eufemismos sobre participación, interacción, accesibilidad, eficiencia, etc., ya que “…la relación entre los humanos y la IA no es una competencia, sino una asociación, y el impacto dependerá de cómo se la use” (Hoffman, 2023; University World News, 2023). Lo mismo que la energía atómica, ¿no?!?

 

Curiosamente (o no tanto), el ChatGPT es un producto de la empresa OpenAI, uno de sus dueños es Elon Musk, está disponible en forma gratuita o pagando pocos dólares por mes y ya superó centenares de millones de usuarios mensuales. Y esto no es banal, ya que existen preocupaciones serias en el área académica. Al respecto, recientes opiniones de editores y expertos en diferentes disciplinas, fueron consultados sobre este punto. Su conclusión general: “…la IA no puede sustituir al hecho de tener algo que decir” (Bagenal, 2024; Sin autor, 2024). Una respuesta quizás vaga y poco convincente.

 

Luego de contrapesar pros y contras de la IA en la comunicación científica, se concluye que sus resultados suelen sorprender por sus inexactitudes, aunque pueden ser convincentes y facilitar la desinformación. Así como son herramientas útiles, se deben concientizar los riesgos, y considerar que “…la interacción dialógica regular y duradera, de preferencia cara a cara, sigue siendo la forma más efectiva de una comunicación basada en la confianza”, “…ya que es una situación en la que las intervenciones tecnológicas pueden hacer más daño que bien" (Alvarez et al., 2024; Berreby, 2024; Biyela et al., 2024; Sin autor, 2024). Mientras, importantes organismos educativos y sanitarios propusieron suspender, no sólo la tecnología de IA, sino la interacción con tecnología digital (teléfonos, tablets, etc.) en guarderías y todos los niveles de escolaridad primaria (Pressenza, 2023).

 

¿Y qué pasa en el mundo inteligente?

 

Expertos informáticos sostienen que la IA es “una forma de programar”, y “…depende de la base de datos de los programas de entrenamiento”. “Las máquinas no hacen nada sin una persona detrás que diga lo que tiene que hacer y cómo hacerlo”, “…por lo que debería preocupar más el factor humano que la IA”, ya que “…estos sistemas se diseñan para generar respuestas adaptadas al interlocutor”. Así, el sistema LaMBA (de Google), fue reconocido por el pastor evangélico Blake Lemoine como “ser sintiente desde que pudo mantener conversaciones sobre religión, emociones y miedos”, sin percatarse que ese sistema fue diseñado para generar respuestas que agraden al interlocutor y que pueden crear espejismos de personas, donde sólo hay máquinas (Wertheimer, 2022). Además, los sistemas de IA son cajas negras, cuya intimidad nadie conoce excepto sus creadores y dueños, amparados por patentes y acuerdos de propiedad intelectual (Berreby, 2024; Rovasio, 2019; Rovasio, 2024).

 

Enormes empresas (y servicios de inteligencia) del Norte Global concentran el desarrollo y aplicación de la IA (University World News, 2023)¿Qué alternativa queda para los países del Sur? Un tema que no es ajeno a la ciencia, que rechaza una ciencia neutra y apolítica, y que exige una mayor responsabilidad social del científico. Al parafrasear la frase final de un inteligente y reciente artículo, se podría decir que “para estar a la altura de este ideal (y sobrevivir), la integridad de la investigación, la gestión de riesgos y el valor del liderazgo del pensamiento humano deben ser la nueva prioridad” (Bagenal, 2024).


Texto completo:

PDF

Referencias


Alconada, H. (20 de septiembre de 2019). Cambridge Analytica hizo trabajos para el Pro antes de la campaña de 2015. La Nación. https://www.lanacion.com.ar/politica/cambridge-analytica-hizo-trabajos-pro-antes-campana-nid2289827/

Alvarez, A. Caliskan, A., Crockett, M., Ho, S., Messeri, L. y West, J. (2024). Science communication with generative AI. Nature Human Behaviour. https://www.nature.com/articles/s41562-024-01846-3

Bagenal, J. (2024). Generative artificial intelligence and scientific publishing: urgent questions, difficult answers. Lancet, 403(10432), 1118-1120. https://doi.org/10.1016/S0140-6736(24)00416-1

Berreby, D. (1 de marzo de 2024). Scientists are putting ChatGPT brains inside robot bodies. What could possibly go wrong? Scient Amer. https://www.scientificamerican.com/article/scientists-are-putting-chatgpt-brains-inside-robot-bodies-what-could-possibly-go-wrong/

Biyela, S., Dihal, K., Ilonka, K., Ippolito, D., Menczer, F., Schäfer, M. y Yokoyama, H. (2024). Generative AI and science communication in the physical sciences. Nature Reviews Physics, 6, 162-165. https://doi.org/10.1038/s42254-024-00691-7

Burch, S. (5 de julio de 2017). Inteligencia artificial: ¿la nueva dependencia? América Latina en Movimiento. 525. https://www.alainet.org/es/articulo/186610

Callaway, E. (2024). Could AI-designed proteins be weaponized? Scientists lay out safety guidelines. Nature, 627, 478. https://www.nature.com/articles/d41586-024-00699-0

Carter, S., Curtis, S., Emerson, C., Gray, J., Haydon, I., Hebbeler, A., Qureshi, C., Randolph, N., Rives, A. y Stuart, L. (8 de marzo de 2024). Community Values, Guiding Principles, and Commitments for the Responsible Development of AI for Protein Design. https://responsiblebiodesign.ai

Castelvecchi, D. (2023). How will AI change mathematics? Rise of chatbots highlights discussion. Nature, 615, 15-16. https://doi.org/10.1038/d41586-023-00487-2

ChatGpt y Zhavoronkov, A. (2022). Rapamycin in the context of Pascal’s Wager: generative pre-trained transformer perspective. Oncoscience, 9, 82-84. https://doi.org/10.18632/oncoscience.571

ChatGpt, Osmanovic, T. y Steingrimsson, S. (2022). Can GPT-3 write an academic paper on itself, with minimal human input? (Preprint). https://hal.science/hal-03701250#:~:text=We%20find%20that%20GPT%2D3,about%20itself%20outweigh%20the%20risks.

Dybul, M. (julio de 2023). Biosecurity in the Age of AI. Helena at The Rockefeller Foundation’s Bellagio Center. https://www.helenabiosecurity.org

Else, H. (2023). Abstracts written by ChatGPT fool scientists. Nature, 613, 423. https://doi.org/10.1038/d41586-023-00056-7

Hoffman, R. (23 de enero de 2023). The human-AI partnership. Greymatter. https://greylock.com/greymatter/the-human-ai-partnership/?utm_source=Nature+Briefing&utm_campaign=08590f08b2-briefing-dy-20230124&utm_medium=email&utm_term=0_c9dfd39373-08590f08b2-45355558

Hutson, M. (2022). Could AI help you to write your next paper? Nature, 611, 192-193. https://doi.org/10.1038/d41586-022-03479-w

Kung, T., Cheatham, M., Medenilla, A., Sillos, C., De Leon, L., Elepaño, C., Madriaga, M., Aggabao, R., Diaz-Candido, G., Maningo, J. y Tseng, V. (2023). Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digit Health, 2(2), e0000198. https://doi.org/10.1371/journal.pdig.0000198

MacGregor, K. (3 de febrero de 2023). Sciences Po bans ChatGPT amid HE quality, integrity fears. University World News https://www.universityworldnews.com/post.php?story=20230203074335557

MacGregor, K. (28 de junio de 2024). Generative AI action hints at core future roles in universities. University World News. https://www.universityworldnews.com/post.php?story=2024012705101220

Májovský, M., Černý, M., Kasal, M., Komarc, M. y Netuka, D. (2023). Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened. Journal of Medical Internet Research, 25, c46924. https://www.jmir.org/2023/1/e46924/

O’Connor, S. y ChatGPT. (2023). Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Education in Practice, 66, 103537. https://doi.org/10.1016/j.nepr.2022.103537

Owens, B. (2023). How Nature readers are using ChatGPT. Nature, 615, 20. https://www.nature.com/articles/d41586-023-00500-8

Pressenza. (10 de diciembre de 2023). Científicos piden suspensión de digitalización en guarderías y escuelas. https://www.pressenza.com/es/2023/12/cientificos-piden-suspension-de-digitalizacion-en-guarderias-y-escuelas/

Rovasio, R. A. (2019). Ciencia y Tecnología en tiempos difíciles: De la “ciencia pura” a la “ciencia neoliberal” [Trabajo de especialización, Universidad Nacional de Córdoba]. https://rdu.unc.edu.ar/bitstream/handle/11086/11686/TFI%20-%20Ciencia%20neoliberal%20-%20Rovasio%20Roberto%20A%20-%202019%2BLicencia-1.pdf?sequence=1&isAllowed=y

Rovasio, R. A. (2024, en prensa). La Ciencia en la etapa Post-Neoliberal: ¿Superación o condena? Editorial Brujas. 440 pp. Córdoba. Argentina.

RT Noticias (12 de febrero de 2023). ChatGPT casi aprueba el examen para ejercer como médico en EE.UU. https://actualidad.rt.com/actualidad/457934-chatgpt-aprueba-examen-licencia-medica-eeuu

Schwalbe, N. y Wahl, B. (2020). Artificial intelligence and the future of global health. (Review). The Lancet, 395(10236), 1579-1586. https://doi.org/10.1016/S0140-6736(20)30226-9

Sin autor. (2024). AI is no substitute for having something to say. Nature Reviews Physics, 6, 151. https://doi.org/10.1038/s42254-024-00713-4

Stokel-Walker, C. (2022). AI bot ChatGPT writes smart essays — should professors worry? Nature News. https://www.nature.com/articles/d41586-022-04397-7

Stokel-Walker, C. (2023a). ChatGPT listed as author on research papers. Nature, 613, 620-621. https://doi.org/10.1038/d41586-023-00107-z

Stokel-Walker, C. (2023b). AI chatbots are coming to search engines – can you trust the results? Nature, 620, 258. https://www.nature.com/articles/d41586-023-00423-4

The Lancet. (2017). Editorial - Artificial intelligence in health care: within touching distance. The Lancet 390(10114), 2739. https://doi.org/10.1016/S0140-6736(17)31540-4

Tufekci, Z. (19 de marzo de 2018). Facebook’s Surveillance Machine. The New York Times. https://www.nytimes.com/2018/03/19/opinion/facebook-cambridge-analytica.html

United States Medical Licensing Examination (USMLE). (10 de febrero de 2023). USMLE Program discusses ChatGPT. https://www.usmle.org/usmle-program-discusses-chatgpt

University World News. (2023). Special Report: AI and Higher Education. https://www.universityworldnews.com/page.php?page=AI_and_Higher_Education_Special_Report

Urbina, F., Lentzos, F., Invernizzi, C. y Ekins, S. (2022). Dual use of artificial-intelligence-powered drug discovery. Nature Machine Intelligence, 4, 189-191. https://doi.org/10.1038/s42256-022-00465-9

Wertheimer, T. (23 de julio de 2022). Blake Lemoine: Google despide al ingeniero que aseguró que un programa de inteligencia artificial cobró conciencia propia. BBC News. https://www.bbc.com/mundo/noticias-62280846


Enlaces refback

  • No hay ningún enlace refback.