{"id":1993,"date":"2025-09-23T03:13:32","date_gmt":"2025-09-23T00:13:32","guid":{"rendered":"https:\/\/villavicencio.org.ar\/anuario\/?p=1993"},"modified":"2026-02-25T18:19:44","modified_gmt":"2026-02-25T15:19:44","slug":"33-editorial-etica-en","status":"publish","type":"post","link":"https:\/\/villavicencio.org.ar\/anuario\/33-editorial-etica-en\/","title":{"rendered":"\u00c9tica en la inteligencia artificial para la investigaci\u00f3n cient\u00edfica"},"content":{"rendered":"<p>[et_pb_section fb_built=\u00bb1&#8243; custom_padding_last_edited=\u00bbon|desktop\u00bb admin_label=\u00bbHeader\u00bb _builder_version=\u00bb4.16&#8243; background_enable_image=\u00bboff\u00bb background_size=\u00bbcontain\u00bb background_position=\u00bbtop_right\u00bb custom_padding=\u00bb11px||4px||false|false\u00bb custom_padding_tablet=\u00bb2px|0px|50px|0px|false|false\u00bb custom_padding_phone=\u00bb3px|0px|50px|0px|false|false\u00bb global_colors_info=\u00bb{}\u00bb][et_pb_row _builder_version=\u00bb4.16&#8243; max_width=\u00bb1280px\u00bb custom_margin=\u00bb-11px|auto||auto||\u00bb custom_padding=\u00bb8px|||||\u00bb use_custom_width=\u00bbon\u00bb custom_width_px=\u00bb1280px\u00bb collapsed=\u00bbon\u00bb global_colors_info=\u00bb{}\u00bb][et_pb_column type=\u00bb4_4&#8243; _builder_version=\u00bb4.16&#8243; custom_padding=\u00bb|||\u00bb global_colors_info=\u00bb{}\u00bb custom_padding__hover=\u00bb|||\u00bb][et_pb_text _builder_version=\u00bb4.20.1&#8243; _module_preset=\u00bbdefault\u00bb text_font=\u00bb|700|||||||\u00bb text_font_size=\u00bb16px\u00bb locked=\u00bboff\u00bb global_colors_info=\u00bb{}\u00bb]<\/p>\n<p style=\"text-align: right;\">Acceso abierto<\/p>\n<p>[\/et_pb_text][et_pb_text _builder_version=\u00bb4.21.0&#8243; _dynamic_attributes=\u00bbcontent\u00bb text_font=\u00bbEB Garamond||||||||\u00bb text_font_size=\u00bb50px\u00bb text_line_height=\u00bb1.3em\u00bb header_font=\u00bbEB Garamond||||||||\u00bb header_font_size=\u00bb54px\u00bb header_line_height=\u00bb1.3em\u00bb header_4_font=\u00bb|700||on|||||\u00bb header_4_text_color=\u00bb#ffdaa4&#8243; header_4_font_size=\u00bb16px\u00bb header_4_letter_spacing=\u00bb2px\u00bb header_4_line_height=\u00bb2em\u00bb max_width=\u00bb900px\u00bb text_font_size_tablet=\u00bb\u00bb text_font_size_phone=\u00bb15px\u00bb text_font_size_last_edited=\u00bbon|desktop\u00bb text_line_height_tablet=\u00bb\u00bb text_line_height_phone=\u00bb1.6em\u00bb text_line_height_last_edited=\u00bbon|phone\u00bb header_font_size_tablet=\u00bb50px\u00bb header_font_size_phone=\u00bb32px\u00bb header_font_size_last_edited=\u00bbon|phone\u00bb global_colors_info=\u00bb{}\u00bb]@ET-DC@eyJkeW5hbWljIjp0cnVlLCJjb250ZW50IjoicG9zdF90aXRsZSIsInNldHRpbmdzIjp7ImJlZm9yZSI6IiIsImFmdGVyIjoiIn19@[\/et_pb_text][et_pb_blurb title=\u00bbRab. Dr. Fishel Szlajen (1)\u00bb use_icon=\u00bbon\u00bb font_icon=\u00bb&#xe0ec;||divi||400&#8243; icon_color=\u00bb#3cbebe\u00bb icon_placement=\u00bbleft\u00bb content_max_width=\u00bb1100px\u00bb image_icon_width_last_edited=\u00bboff|desktop\u00bb _builder_version=\u00bb4.27.4&#8243; header_font=\u00bb|600|||||||\u00bb header_font_size=\u00bb18px\u00bb header_line_height=\u00bb1.6em\u00bb body_font=\u00bb||||||||\u00bb body_font_size=\u00bb15px\u00bb body_line_height=\u00bb2em\u00bb hover_enabled=\u00bb0&#8243; header_font_size_tablet=\u00bb\u00bb header_font_size_phone=\u00bb15px\u00bb header_font_size_last_edited=\u00bbon|phone\u00bb body_line_height_tablet=\u00bb\u00bb body_line_height_phone=\u00bb1.6em\u00bb body_line_height_last_edited=\u00bbon|phone\u00bb image_max_width_phone=\u00bb50px\u00bb image_max_width_last_edited=\u00bboff|desktop\u00bb locked=\u00bboff\u00bb global_colors_info=\u00bb{}\u00bb sticky_enabled=\u00bb0&#8243;]<\/p>\n<p><sup>(1)<\/sup> Post Doctorado en Bio\u00e9tica (PUCRS), Doctor en Filosof\u00eda (UNEM), Maestr\u00eda en Filosof\u00eda (Bar Ilan University), Jerusalem Fellow Graduated (Mandel Leadership Institute, Israel), Scholar Fellow on Religion and the Rule of Law (Oxford University); Rabino (Yeshiv\u00e1 Maal\u00e9 Gilboa, Israel).<\/p>\n<p>Profesor titular en UBA, USAL y UNLaM.<\/p>\n<p>Miembro Titular de la Pontificia Academia para la Vida, Vaticano; Miembro del Consejo Acad\u00e9mico de \u00c9tica en Medicina, de la Academia Nacional de Medicina; Miembro del Consejo Argentino para la Libertad Religiosa; y Miembro del International Center for Law and Religion Studies, USA.<\/p>\n<p>Su m\u00e1s reciente libro es \u201c\u00c9tica y Pol\u00edticas P\u00fablicas: biotecnolog\u00eda, religi\u00f3n, derecho y sociedad\u201d (2025).<\/p>\n<p><strong>Fecha de publicaci\u00f3n<\/strong>: 26\/09\/2025<\/p>\n<p><strong>Citaci\u00f3n sugerida:<\/strong> Szlajen, F. \u00c9tica en la inteligencia artificial para la investigaci\u00f3n cient\u00edfica. Anuario (Fund. Dr. J. R. Villavicencio) 2026;33. Disponible en: <span><a href=\"https:\/\/villavicencio.org.ar\/anuario\/33-editorial-etica-en\">https:\/\/villavicencio.org.ar\/anuario\/33-editorial-etica-en<\/a> <\/span>ARK: <a href=\"https:\/\/id.caicyt.gov.ar\/ark:\/s2796762x\/kla0worxk\"><span>https:\/\/id.caicyt.gov.ar\/ark:\/s2796762x\/kla0worxk<\/span><\/a><span><\/span><\/p>\n<p>Este es un art\u00edculo de acceso abierto distribuido bajo los t\u00e9rminos de Creative Commons Attribution License (<a href=\"https:\/\/creativecommons.org\/licenses\/by-nc-sa\/4.0\/deed.es\" target=\"_blank\" rel=\"noopener\">https:\/\/creativecommons.org\/licenses\/by-nc-sa\/4.0\/deed.es<\/a>), <span data-olk-copy-source=\"MessageBody\">esto permite que Ud. lo comparta, lo copie y lo redistribuya, sin prop\u00f3sitos comerciales, siempre que se cite correctamente el trabajo original. Si crea un nuevo material con \u00e9l, no podr\u00e1 distribuir el material modificado.<\/span><\/p>\n<p>[\/et_pb_blurb][et_pb_button button_url=\u00bb\/anuario\/33\/editorial-etica-en.pdf\u00bb url_new_window=\u00bbon\u00bb button_text=\u00bbDescargar editorial\u00bb button_alignment=\u00bbright\u00bb _builder_version=\u00bb4.27.4&#8243; custom_button=\u00bbon\u00bb button_text_size=\u00bb12px\u00bb button_text_color=\u00bb#3cbebe\u00bb button_bg_color=\u00bbrgba(60,190,190,0.1)\u00bb button_border_width=\u00bb10px\u00bb button_border_color=\u00bbrgba(0,0,0,0)\u00bb button_border_radius=\u00bb100px\u00bb button_letter_spacing=\u00bb1px\u00bb button_font=\u00bb|700||on|||||\u00bb custom_padding=\u00bb10px|20px|10px|20px|true|true\u00bb button_letter_spacing_hover=\u00bb1px\u00bb locked=\u00bboff\u00bb global_colors_info=\u00bb{}\u00bb button_text_size__hover_enabled=\u00bboff\u00bb button_one_text_size__hover_enabled=\u00bboff\u00bb button_two_text_size__hover_enabled=\u00bboff\u00bb button_text_color__hover_enabled=\u00bboff\u00bb button_one_text_color__hover_enabled=\u00bboff\u00bb button_two_text_color__hover_enabled=\u00bboff\u00bb button_border_width__hover_enabled=\u00bboff\u00bb button_one_border_width__hover_enabled=\u00bboff\u00bb button_two_border_width__hover_enabled=\u00bboff\u00bb button_border_color__hover_enabled=\u00bboff\u00bb button_one_border_color__hover_enabled=\u00bboff\u00bb button_two_border_color__hover_enabled=\u00bboff\u00bb button_border_radius__hover_enabled=\u00bboff\u00bb button_one_border_radius__hover_enabled=\u00bboff\u00bb button_two_border_radius__hover_enabled=\u00bboff\u00bb button_letter_spacing__hover_enabled=\u00bbon\u00bb button_letter_spacing__hover=\u00bb1px\u00bb button_one_letter_spacing__hover_enabled=\u00bboff\u00bb button_two_letter_spacing__hover_enabled=\u00bboff\u00bb button_bg_color__hover_enabled=\u00bboff\u00bb button_one_bg_color__hover_enabled=\u00bboff\u00bb button_two_bg_color__hover_enabled=\u00bboff\u00bb][\/et_pb_button][\/et_pb_column][\/et_pb_row][\/et_pb_section][et_pb_section fb_built=\u00bb1&#8243; admin_label=\u00bbCourses\u00bb _builder_version=\u00bb4.16&#8243; custom_padding=\u00bb1px|0px|62px|0px|false|false\u00bb collapsed=\u00bbon\u00bb global_colors_info=\u00bb{}\u00bb][et_pb_row custom_padding_last_edited=\u00bbon|phone\u00bb _builder_version=\u00bb4.16&#8243; background_color=\u00bb#ffffff\u00bb max_width=\u00bb1280px\u00bb custom_padding=\u00bb12px|40px|12px|40px|true|false\u00bb custom_padding_tablet=\u00bb\u00bb custom_padding_phone=\u00bb|20px||20px||true\u00bb animation_style=\u00bbzoom\u00bb animation_intensity_zoom=\u00bb2%\u00bb border_radii=\u00bbon|12px|12px|12px|12px\u00bb box_shadow_style=\u00bbpreset1&#8243; box_shadow_vertical=\u00bb50px\u00bb box_shadow_blur=\u00bb80px\u00bb box_shadow_color=\u00bbrgba(15,19,25,0.1)\u00bb use_custom_width=\u00bbon\u00bb custom_width_px=\u00bb1280px\u00bb global_colors_info=\u00bb{}\u00bb][et_pb_column type=\u00bb4_4&#8243; _builder_version=\u00bb4.16&#8243; custom_padding=\u00bb|||\u00bb global_colors_info=\u00bb{}\u00bb custom_padding__hover=\u00bb|||\u00bb][et_pb_text _builder_version=\u00bb4.27.4&#8243; text_font=\u00bb||||||||\u00bb text_font_size=\u00bb15px\u00bb text_line_height=\u00bb2em\u00bb header_font=\u00bb||||||||\u00bb header_2_font=\u00bb||||||||\u00bb header_3_font=\u00bbEB Garamond||||||||\u00bb header_3_font_size=\u00bb24px\u00bb header_3_line_height=\u00bb1.4em\u00bb header_4_font=\u00bb|700||on|||||\u00bb header_4_text_color=\u00bb#ffdaa4&#8243; header_4_font_size=\u00bb12px\u00bb header_4_letter_spacing=\u00bb2px\u00bb header_4_line_height=\u00bb2em\u00bb text_line_height_tablet=\u00bb\u00bb text_line_height_phone=\u00bb1.6em\u00bb text_line_height_last_edited=\u00bbon|phone\u00bb global_colors_info=\u00bb{}\u00bb]<\/p>\n<p>La irrupci\u00f3n de la Inteligencia Artificial (IA) en la investigaci\u00f3n cient\u00edfica ha reformulado no s\u00f3lo las t\u00e9cnicas de recolecci\u00f3n y an\u00e1lisis de datos, sino tambi\u00e9n los paradigmas epist\u00e9micos de validaci\u00f3n del conocimiento y la responsabilidad cient\u00edfica.<\/p>\n<p>Entre los aspectos positivos, ya se\u00f1alados por Max Tegmark, los algoritmos permiten escalar la capacidad cognitiva humana en t\u00e9rminos de volumen y complejidad, clave por ejemplo en investigaciones epidemiol\u00f3gicas. Durante la pandemia COVID-19, el uso de IA en el sistema BlueDot permiti\u00f3 identificar brotes emergentes antes que la OMS.<\/p>\n<p>Adem\u00e1s, la inteligencia artificial permite realizar miner\u00eda de datos sobre grandes vol\u00famenes de literatura cient\u00edfica no supervisada, es decir, identificar patrones, correlaciones, temas emergentes o lagunas en el conocimiento. El Semantic Scholar no s\u00f3lo organiza y clasifica millones de publicaciones cient\u00edficas, sino que tambi\u00e9n aplica redes neuronales y t\u00e9cnicas de procesamiento de lenguaje natural para determinar qu\u00e9 art\u00edculos han sido influyentes en un campo determinado, o detectar \u00e1reas tem\u00e1ticas donde hay escasa producci\u00f3n acad\u00e9mica pese a su relevancia. Esta capacidad optimiza la planificaci\u00f3n de futuras l\u00edneas de investigaci\u00f3n al se\u00f1alar, por ejemplo, \u00e1reas donde hay preguntas sin respuesta o enfoques que a\u00fan no se han explorado en profundidad. Incluso permite evitar la redundancia cient\u00edfica o duplicaci\u00f3n de estudios, crucial en contextos donde los recursos de investigaci\u00f3n son limitados.<\/p>\n<p>En biotecnolog\u00eda y farmacolog\u00eda, la IA tambi\u00e9n ha demostrado poder anticipar resultados experimentales. AtomNet, un sistema basado en redes neuronales convolucionales predijo qu\u00e9 mol\u00e9culas podr\u00edan inhibir prote\u00ednas asociadas a enfermedades como el \u00e9bola o ciertos c\u00e1nceres, incluso antes de que esas mol\u00e9culas fueran sintetizadas qu\u00edmicamente. Esto representa un salto cu\u00e1ntico en la investigaci\u00f3n, pudiendo ahora filtrar millones de compuestos virtuales mediante simulaciones reduciendo dr\u00e1sticamente el tiempo y costo necesarios para el desarrollo de nuevos medicamentos.<\/p>\n<p>Sin embargo, estas aplicaciones plantean nuevas preguntas \u00e9ticas sobre qui\u00e9n detenta la propiedad intelectual de descubrimientos mediados por IA, y c\u00f3mo validar emp\u00edricamente hip\u00f3tesis generadas por sistemas aut\u00f3nomos. Estas advertencias sobre el uso de IA en ciencia se agudizan por la opacidad de los algoritmos, fen\u00f3meno llamado por Nicholas Diakopoulos, cajas negras. Su funcionamiento interno no es accesible o comprensible, ni siquiera para los propios usuarios, debido a la complejidad de sus algoritmos o porque el c\u00f3digo fuente y los datos de entrenamiento est\u00e1n protegidos por derechos de propiedad intelectual. Esta falta de transparencia plantea un problema epistemol\u00f3gico central en la ciencia, la imposibilidad de verificar, replicar o refutar los resultados obtenidos por estos sistemas, lo que contraviene directamente el principio de falsabilidad de Karl Popper como criterio de demarcaci\u00f3n cient\u00edfica. Un ejemplo es el IBM Watson for Oncology, sistema desarrollado para asistir en decisiones terap\u00e9uticas oncol\u00f3gicas que promet\u00eda personalizar tratamientos a partir del an\u00e1lisis de literatura m\u00e9dica y bases de datos cl\u00ednicos. Pero sus recomendaciones no eran trazables ni reproducibles, no pudiendo entender por qu\u00e9 suger\u00eda ciertos tratamientos ni comprobar si los datos que usaba eran representativos o sesgados. En contextos cl\u00ednicos, esta opacidad no s\u00f3lo es cient\u00edficamente problem\u00e1tica, sino tambi\u00e9n \u00e9ticamente riesgosa, ya que decisiones que afectan vidas humanas no deber\u00edan tomarse sobre una base ininteligible o no auditable.<\/p>\n<p>Cathy O\u2019Neil ha advertido que muchos sistemas de IA, lejos de ser neutrales u objetivos, pueden reproducir e incluso amplificar desigualdades sociales estructurales. Los modelos de IA aprenden de datos hist\u00f3ricos, y si estos reflejan prejuicios sist\u00e9micos, entonces los algoritmos tienden a perpetuarlos bajo una apariencia tecnocient\u00edfica de legitimidad. En sociolog\u00eda, diversos sistemas sobre representan caracter\u00edsticas propias de grupos dominantes como la \u201cnorma\u201d estad\u00edstica, desplazando o invisibilizando los patrones propios de otros colectivos. PredPol, un software utilizado por departamentos de polic\u00eda en ciudades como Los \u00c1ngeles y Atlanta, fue entrenado con datos hist\u00f3ricos de arrestos, los cuales ya estaban sesgados contra comunidades afroamericanas y latinas. El algoritmo COMPAS para evaluar el riesgo de reincidencia en procesos judiciales, sesgaba sistem\u00e1ticamente contra personas negras. El algoritmo de admisi\u00f3n internacional de la Universidad de Cambridge exclu\u00eda sistem\u00e1ticamente a postulantes de pa\u00edses con bajos ingresos, por haberse entrenado con datos hist\u00f3ricos de rendimiento acad\u00e9mico y tasas de admisi\u00f3n previas que, sin mediar correcciones socioecon\u00f3micas o contextuales, ni atender a m\u00e9ritos individuales o por alcanzar logros en contextos adversos, reflejaban sesgos acumulados por d\u00e9cadas.<\/p>\n<p>Estos ejemplos, entre otros, traduciendo prejuicios y sesgos como regla permanente disfrazados de neutralidad matem\u00e1tica, demuestran que la automaci\u00f3n que toma decisiones sobre personas no s\u00f3lo debe ser t\u00e9cnicamente eficiente, sino tambi\u00e9n ecu\u00e1nime, auditable y contextualizado culturalmente.<\/p>\n<p>En este respecto, uno de los factores m\u00e1s cr\u00edticos, aunque frecuentemente ignorados, en la aplicaci\u00f3n de IA a la investigaci\u00f3n cient\u00edfica y formulaci\u00f3n de pol\u00edticas es que los modelos de \u201cmachine learning\u201d no distinguen entre correlaci\u00f3n y causalidad. Es decir, estos sistemas son eficaces para detectar patrones estad\u00edsticos en grandes vol\u00famenes de datos, pero carecen a priori de una comprensi\u00f3n estructural de las relaciones causales subyacentes. Esta limitaci\u00f3n, destacada por Judea Pearl, es la incapacidad de los algoritmos para responder preguntas del tipo \u201c\u00bfqu\u00e9 pasar\u00eda si\u2026?\u201d o para distinguir entre meras asociaciones y causas. Por ello, Pearl propone un marco te\u00f3rico de \u201cc\u00e1lculo causal\u201d que permite formalizar inferencias causales de manera l\u00f3gica y computacional evitando las conclusiones espurias. Por ejemplo, un sistema podr\u00eda concluir que llevar paraguas causa lluvia, simplemente por ser ambos eventos concurrentes, sin captar que la causa com\u00fan es la presencia de nubes. Esta falacia puede tener consecuencias graves en medicina donde un algoritmo que relacione la presencia de determinados medicamentos con la recuperaci\u00f3n de pacientes podr\u00eda err\u00f3neamente inferir que dicho f\u00e1rmaco \u201ccura\u201d, cuando en realidad se debe a otra raz\u00f3n. En pol\u00edticas p\u00fablicas, se podr\u00eda errar al asumir que ciertas medidas generan progreso econ\u00f3mico sin haber descartado variables de confusi\u00f3n ni haber controlado los factores contextuales.<\/p>\n<p>Aqu\u00ed, el punto epistemol\u00f3gico es la diferencia entre predicci\u00f3n y explicaci\u00f3n. Por eso, si los resultados producidos por IA se utilizan como base para intervenciones sociales, sanitarias, educativas, jur\u00eddico-legales o en materia de seguridad, sin un marco causal expl\u00edcito y validado, se corre el serio riesgo de tomar decisiones ineficaces, injustas o incluso da\u00f1inas.<\/p>\n<p>Luego, mientras que estas tecnolog\u00edas ampl\u00edan exponencialmente las capacidades humanas para detectar patrones, formular hip\u00f3tesis y acelerar descubrimientos, tambi\u00e9n introducen nuevos riesgos en la producci\u00f3n, validaci\u00f3n y legitimaci\u00f3n del conocimiento. \u00c9ticamente, surge el problema de delegar funciones cognitivas cr\u00edticas como la evaluaci\u00f3n de evidencia o la toma de decisiones cl\u00ednicas, a sistemas que no pueden rendir cuentas, carecen de intencionalidad moral y de c\u00e1lculo causal, y operan bajo l\u00f3gicas estad\u00edsticas opacas. Desde la epistemolog\u00eda si el conocimiento cient\u00edfico comienza a depender de modelos cuya l\u00f3gica interna es inaccesible, se debilita el ideal ilustrado de ciencia como empresa p\u00fablica, racional y verificable. Pol\u00edticamente, se corre el riesgo de privatizar el conocimiento dado que los modelos de IA m\u00e1s avanzados son desarrollados por corporaciones que no necesariamente comparten sus algoritmos, datasets ni criterios de evaluaci\u00f3n, creando asimetr\u00edas de poder y posiciones dominantes de quienes poseen la infraestructura algor\u00edtmica frente a quienes dependen de sus resultados. Este escenario exige, por tanto, la formulaci\u00f3n de nuevas normativas y principios \u00e9tico-legales, como la no delegaci\u00f3n, la trazabilidad algor\u00edtmica, el acceso abierto a datos cient\u00edficos, y mecanismos institucionales de auditor\u00eda de IA en ciencia, para asegurar que el progreso tecnol\u00f3gico no desplace los fundamentos de la pr\u00e1ctica cient\u00edfica ni los derechos, obligaciones y responsabilidades de quienes la protagonizan o la reciben.<\/p>\n<p>[\/et_pb_text][\/et_pb_column][\/et_pb_row][\/et_pb_section][et_pb_section fb_built=\u00bb1&#8243; admin_label=\u00bbCourses\u00bb _builder_version=\u00bb4.16&#8243; custom_padding=\u00bb1px|0px|62px|0px|false|false\u00bb collapsed=\u00bbon\u00bb global_colors_info=\u00bb{}\u00bb][et_pb_row custom_padding_last_edited=\u00bbon|phone\u00bb _builder_version=\u00bb4.16&#8243; background_color=\u00bb#ffffff\u00bb max_width=\u00bb1280px\u00bb custom_padding=\u00bb12px|40px|12px|40px|true|false\u00bb custom_padding_tablet=\u00bb\u00bb custom_padding_phone=\u00bb|20px||20px||true\u00bb animation_style=\u00bbzoom\u00bb animation_intensity_zoom=\u00bb2%\u00bb border_radii=\u00bbon|12px|12px|12px|12px\u00bb box_shadow_style=\u00bbpreset1&#8243; box_shadow_vertical=\u00bb50px\u00bb box_shadow_blur=\u00bb80px\u00bb box_shadow_color=\u00bbrgba(15,19,25,0.1)\u00bb use_custom_width=\u00bbon\u00bb custom_width_px=\u00bb1280px\u00bb global_colors_info=\u00bb{}\u00bb][et_pb_column type=\u00bb4_4&#8243; _builder_version=\u00bb4.16&#8243; custom_padding=\u00bb|||\u00bb global_colors_info=\u00bb{}\u00bb custom_padding__hover=\u00bb|||\u00bb][et_pb_text _builder_version=\u00bb4.27.4&#8243; text_font=\u00bb||||||||\u00bb text_font_size=\u00bb15px\u00bb text_line_height=\u00bb2em\u00bb header_font=\u00bb||||||||\u00bb header_2_font=\u00bb||||||||\u00bb header_3_font=\u00bbEB Garamond||||||||\u00bb header_3_font_size=\u00bb24px\u00bb header_3_line_height=\u00bb1.4em\u00bb header_4_font=\u00bb|700||on|||||\u00bb header_4_text_color=\u00bb#ffdaa4&#8243; header_4_font_size=\u00bb12px\u00bb header_4_letter_spacing=\u00bb2px\u00bb header_4_line_height=\u00bb2em\u00bb text_line_height_tablet=\u00bb\u00bb text_line_height_phone=\u00bb1.6em\u00bb text_line_height_last_edited=\u00bbon|phone\u00bb global_colors_info=\u00bb{}\u00bb]<\/p>\n<p style=\"text-align: center;\"><strong>Bibliograf\u00eda<br \/>\n<\/strong><\/p>\n<p> 1.\tAngwin, J., Larson, J., Mattu, S., y Kirchner, L. (2016). Machine Bias: there\u2019s software used across the country to predict future criminals. And it\u2019s biased against blacks. ProPublica.<br \/>\n 2.\tCheong, B. (2024). \u201cTransparency and accountability in AI systems: safeguarding wellbeing in the age of algorithmic decision-making\u201d. En Frontiers in Human Dynamics 6, 1-11.<br \/>\n 3.\tDiakopoulos, N. (2016). \u201cAccountability in algorithmic decision making\u201d. En Communications of the ACM 59, 56-62.<br \/>\n 4.\tO\u2019Neil, C. (2017). Armas de Destrucci\u00f3n Matem\u00e1tica: c\u00f3mo el big data aumenta la desigualdad y amenaza la democracia. Capit\u00e1n Swing.<br \/>\n 5.\tPearl, J. (2009). Causality: models, reasoning and inference. Cambridge University Press.<br \/>\n 6.\tPopper, K. (1980). La L\u00f3gica de la Investigaci\u00f3n Cient\u00edfica. Tecnos.<br \/>\n7.\tTegmark, M. (2017). Life 3.0: being human in the age of artificial intelligence. Knopf.<br \/>\n8.\tTopol, E. (2019). Deep Medicine: how artificial intelligence can make healthcare human again. Basic Books.<br \/>\n9.\tZhavoronkov, A. (2019). \u201cArtificial intelligence for drug discovery, biomarker development, and generation of novel chemistry\u201d. En Molecular Pharmaceutics 15(10), 4311\u20134313.[\/et_pb_text][\/et_pb_column][\/et_pb_row][\/et_pb_section]<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La irrupci\u00f3n de la Inteligencia Artificial (IA) en la investigaci\u00f3n cient\u00edfica ha reformulado no s\u00f3lo las t\u00e9cnicas de recolecci\u00f3n y an\u00e1lisis de datos, sino tambi\u00e9n los paradigmas epist\u00e9micos de validaci\u00f3n del conocimiento y la responsabilidad cient\u00edfica. <\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"on","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[47,46],"tags":[48],"class_list":["post-1993","post","type-post","status-publish","format-standard","hentry","category-47","category-a33-editorial","tag-anuario-33-2025"],"_links":{"self":[{"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/posts\/1993","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/comments?post=1993"}],"version-history":[{"count":9,"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/posts\/1993\/revisions"}],"predecessor-version":[{"id":2059,"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/posts\/1993\/revisions\/2059"}],"wp:attachment":[{"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/media?parent=1993"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/categories?post=1993"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/villavicencio.org.ar\/anuario\/wp-json\/wp\/v2\/tags?post=1993"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}