Objetos narrativos de las ciencias: de la industrialización a la cobotización de la experiencia interpretativa

Viviana Martinovich Doctora en Salud Colectiva. Docente-investigadora, Instituto de Salud Colectiva, Universidad Nacional de Lanús, Buenos Aires, Argentina. image/svg+xml
Recibido: 30 marzo 2025, Aceptado: 25 agosto 2025, Publicado: 27 agosto 2025 Open Access
Vistas de artículo
1617
Cargando métricas ...

Resumen


Desde la teoría crítica y la hermenéutica filosófica, en este ensayo se examinan los procesos de industrialización y “cobotización” de la práctica científica, entendida como la incorporación de inteligencia artificial generativa a la producción y validación del conocimiento científico. El texto aborda, en primer lugar, los objetos narrativos de las ciencias, entendidos como dispositivos de formación de consensos al interior de las comunidades científicas; en segundo lugar, los efectos de la industrialización de la práctica científica, la expansión del complejo industrial científico-editorial y la pérdida del sentido social del texto; y, en tercer lugar, el pasaje de la industrialización a la cobotización tanto de la experiencia interpretativa de las ciencias como de los procesos de validación científica que tecnifican la acción comunicativa. Estos procesos, que erosionan y desarticulan las comunidades de lenguaje, ponen de manifiesto la necesidad de recuperar la experiencia interpretativa como una acción intrínsecamente humana, y revalorizar nuestros propios entornos de validación científica para restituir el carácter relacional, situado y reflexivo de la acción comunicativa propios de los objetos narrativos de las ciencias.

INTRODUCCIÓN

En este ensayo, retomamos la tradición de la teoría crítica y, en particular, el concepto de “tecnificación del mundo de la vida” de Jürgen Habermas1, para analizar uno de los recientes procesos de tecnificación de la acción comunicativa, relacionados con la generalización del uso de la inteligencia artificial generativa en la práctica científica. Nos referimos al vínculo entre seres humanos y bots “colaborativos” o cobots con capacidad de generar interpretaciones científicas del entorno y de las teorías precedentes y traducirlas a lenguajes narrativos que, si bien tienen múltiples limitaciones2,3,4,5,6,7,8,9,10, aun así, han comenzado a ser considerados válidos por el componente humano de esa relación. Esto ha llevado a un uso compulsivo y acrítico de la inteligencia artificial que, desde ciertos ámbitos, es percibido como una ruptura de las “reglas de juego” y un quiebre del “contrato social” acordado implícitamente al interior de las comunidades científicas11,12. ¿Cuáles son esas reglas de juego que se desarticulan en el proceso de cobotización de la experiencia interpretativa de las ciencias?, ¿qué tipo de acuerdos se resquebrajan?, ¿se trata de un cambio sin precedentes o tiene sus raíces en procesos anteriores?

Para intentar responder a estas preguntas, retomamos los conceptos de la hermenéutica filosófica de Hans-Georg Gadamer y Paul Ricoeur, y la teoría crítica de Herbert Marcuse y Jürgen Habermas, para analizar, en primer lugar, los objetos narrativos de las ciencias13, entendidos como dispositivos que nuclean conversaciones públicas de las ciencias en el plano narrativo, en los que se producen procesos lingüísticos de formación de consensos al interior de las comunidades científicas. En segundo lugar, se retoman los efectos de la industrialización en la práctica científica, entre ellos, la desarticulación de las complejas y múltiples prácticas relacionales humanas a través de las cuales las comunidades científicas solían consolidar acuerdos, desacuerdos y consensos que admitían la coexistencia de diversas formas humanas de comprender el entorno natural y social. Y, en tercer lugar, se aborda el pasaje de esa industrialización a la cobotización tanto de la experiencia interpretativa de las ciencias como de los procesos de validación científica de esas interpretaciones posibles del entorno, para discutir qué racionalidades se expresan en esas articulaciones.

Objetos narrativos de las ciencias

Desde el nacimiento de las ciencias modernas, el texto ha sido el principal dispositivo sobre el que ha girado la reflexión y discusión colectiva de las ciencias. Más allá de las distinciones disciplinarias, en todas las ciencias, los lenguajes humanos fijados en la escritura han sido el medio en el que se expresaban acuerdos, desacuerdos, tensiones y rupturas, sobre la base de ciertas matrices interpretativas con características más reflexivas o más instrumentales, más creativas o más descriptivas, que fueron actuando a lo largo de la historia como hilos conductores de diversas tradiciones científicas14,15,16.

Sin embargo, esos textos solo se tornaban escenarios de la acción colectiva en la medida que dejaban de ser manuscritos inéditos, limitados a la esfera privada, y se abrían a la posibilidad de atravesar múltiples acciones mediadoras para ingresar a la esfera pública. Es decir, se abrían a la posibilidad de confrontar sus premisas y permitir incluso que el texto sea moldeado sobre la base de las nociones consensuadas por las diversas comunidades científicas en cada momento histórico. Así, el texto pasaba a adoptar la racionalidad y la materialidad propuesta por el dispositivo de publicación elegido, que nucleaba en torno de sí a aquellas personas que compartían algo más que el saber disciplinario. Tal como señalamos en otro texto:

“Las comunidades interpretativas que se conforman en torno a cada revista científica comparten formas comunes de ‘comprenderse’ ante esos textos que cada revista pone en circulación, pero esa forma de comprenderse ante el texto trasciende la disciplina: no es el recorte diciplinar ni temático lo que logra conformar una comunidad interpretativa en torno a una revista científica, sino que es una interpretación común del mundo, y ese acuerdo común excede el ámbito de las ciencias y se expande a los intereses del mundo de la vida”.17

Estos dispositivos, entendidos como objetos narrativos de las ciencias, fueron históricamente los responsables de motorizar los procesos lingüísticos de formación de consensos al interior de las diversas comunidades científicas, lo que demandaba la presencia activa de comunidades de lenguaje que se nuclearan en torno a un “concepto abstracto de mundo”, tal como señala Habermas:

“El mundo sólo cobra objetividad por el hecho de ser reconocido y considerado como uno y el mismo mundo por una comunidad de sujetos capaces de lenguaje y de acción. El concepto abstracto de mundo es condición necesaria para que los sujetos que actúan comunicativamente puedan entenderse entre sí sobre lo que sucede en el mundo o lo que hay que producir en el mundo. Con esta práctica comunicativa se aseguran a la vez del contexto común de sus vidas, del mundo de la vida que intersubjetivamente comparten. Este viene delimitado por la totalidad de las interpretaciones que son presupuestas por los participantes como un saber de fondo”.1 (cursivas del original)

Esas nociones intersubjetivamente compartidas se ponían en acción tanto en el acto de validar y poner en circulación esos acuerdos a través de estos objetos narrativos, como en el acto de nuclearse y de “comprenderse”16 colectivamente ante esos textos. Así, en las primeras décadas del siglo XX, revistas como Zeitschrift für Sozialforschung(Revista de Investigación Social) editada por el Instituto de Investigaciones Sociales de Frankfurt y dirigida por Max Horkheimer, nucleaban en torno de sí racionalidades más reflexivas que ponían en cuestionamiento las nociones de teoría y de conocimiento científico, ya no como esferas independientes o “supra-sociales”, sino como esferas fuertemente integradas al aparato social. El conocido editorial de Horkheimer titulado “Teoría tradicional y crítica18, seguido por los textos de Horkheimer y Marcuse “Filosofía y teoría crítica19 ponían en circulación formas de comprender la “génesis social” de los problemas, entre los que incluían los usos industriales del conocimiento científico19. Quienes discutían y otorgaban validez a las expresiones simbólicas que la Escuela de Frankfurt expresaba en sus textos, remitían a un saber de fondo compartido intersubjetivamente por la comunidad de comunicación que se comprendía a sí misma en torno a esos textos.

Del mismo modo que las racionalidades reflexivas y críticas creaban sus escenarios de legitimación, por aquellos años, las racionalidades técnicas transformaban las revistas en el escenario de validación científica y social de los productos resultantes de la investigación industrial. Revistas como Industrial & Engineering Chemistry, también nucleaban en torno de sí comunidades que formalizaban consensos lingüísticos, pero asociados a otras racionalidades. En el período de entreguerras, esta revista solía centrarse en los grandes aportes de la industria química a la competitividad militar, oponiéndose a todos los intentos de prohibir el uso de gases venenosos o desfinanciar su investigación. En 1926, en un texto editorial titulado “The Poison Gas Protocol” podía leerse:

“Ningún arma de guerra es humanitaria o no sería un arma de guerra, pero en comparación con otras armas, el gas venenoso es humanitario. […] Por una razón muy práctica, los Estados Unidos no deberían aceptar abandonar el gas venenoso. Los Estados Unidos son ricos en recursos químicos, en químicos, en industrias químicas. Están mejor equipados que otras naciones para producir grandes cantidades de gas venenoso en caso de guerra. El gas venenoso posee esta ventaja sobre otras armas: puede experimentarse en secreto. Esta misma característica lo convierte en el arma menos susceptible de regulación mediante tratados. No se puede vigilar todos los tubos de ensayo y contenedores de gas en todos los laboratorios de un país signatario…”.20

En 1931, en esta misma revista se validaban los beneficios de la patente del gas venenoso o “poison gas” como un “destructor sumamente eficaz de gorgojos y otros insectos que infestan los productos alimenticios almacenados”21, sin desconocer su toxicidad para los humanos.

Y quienes se nucleaban en torno de estas revistas compartían acuerdos que trascendían la disciplina: no era el recorte disciplinario ni temático lo que lograba conformar comunidades de lenguaje en torno a esos objetos narrativos de las ciencias, sino que eran formas de concebir la vida, las relaciones sociales, el sentido de la humanidad, entre muchas otras nociones del mundo de la vida, que trascendían la disciplina. La química no era lo que nucleaba a ciertas comunidades científicas en torno a la validación de agentes químicos de alta toxicidad para fines bélicos o para la producción agrícola, como tampoco era la filosofía la que nucleaba a otras comunidades en torno a los textos de la Escuela de Frankfurt, sino que las diversas comunidades de lenguaje se nucleaban en torno a un “concepto abstracto de mundo” compartido, es decir, se nucleaban en torno a una racionalidad compartida.

En este sentido, la racionalidad sería esa interfaz entre los saberes precientíficos mediados por los intereses del mundo de la vida, que se organizan y estructuran en formas validadas y acordadas colectivamente de interpretar científicamente el mundo, de tal manera que habrá comunidades que operen racionalidades más reflexivas y críticas y comunidades que operen racionalidades más técnicas e instrumentales, de forma independiente de la disciplina desde la cual se procure comprender un fragmento del entorno, y ese concepto abstracto de mundo compartido proviene del mundo precientífico, es decir, se va a estructurar como un saber científico, pero con componentes de su mundo vital primario. En diálogo con Husserl, Habermas señala que

“…el saber del mundo, aparentemente objetivo de los hechos, está trascendentalmente basado en el mundo precientífico. Los posibles objetos del análisis científico se constituyen de antemano en las autocomprensiones de nuestro mundo vital primario”.22

La industrialización de la práctica científica

Si bien la tensión respecto de quién valida o legitima el conocimiento científico producido estuvo presente en las distintas comunidades científicas desde el origen de las ciencias modernas, las diversas racionalidades, entre ellas, las racionalidades más reflexivas y críticas solían valorar y reivindicar sus propios objetos narrativos porque eran la arena de discusión en la que se moldeaban los acuerdos sobre las formas de interpretar el entorno natural y social, y los procesos de revisión por pares a escala humana hacían las veces de mecanismos de autorregulación que tensionaban las propias nociones de cientificidad23,24. Sin embargo, la masificación de la investigación industrial a gran escala dio paso a un proceso que Habermas denomina como “cientifización de la técnica”:

“Siempre se ha registrado en el capitalismo una presión institucional a elevar la productividad del trabajo por medio de la introducción de nuevas técnicas. Pero las innovaciones dependían de inventos esporádicos que, por su parte, podían ciertamente estar inducidos económicamente, pero que no tenían un carácter organizado. Pero esto ha variado en la medida en que el progreso científico y el progreso técnico han quedado asociados y se alimentan mutuamente. Con la investigación industrial a gran escala, la ciencia, la técnica y la revalorización del capital confluyen en un único sistema”.22

Jerome Ravetz en su libro Scientific knowledge and its social problems25 ubica el inicio del proceso de industrialización de las ciencias en el período de entreguerras y lo asocia con un desplazamiento de la ciencia académica, el predominio de la investigación de capital intensivo y la consiguiente concentración del poder de decisión de la industria sobre la investigación científica, que “introduce en la ciencia la inestabilidad y la sensación de cambio rápido pero descontrolado, característico del mundo de la industria y el comercio”25. Sin embargo, al tornarse la ciencia una fuerza productiva al servicio de la industria, uno de los cambios más profundos fue la desarticulación de las redes informales y personales de las comunidades que generaban consensos y acuerdos, para pasar a ser trabajadores asalariados de la industria que se disocian de los efectos sociales de aquello que producen, adoptando una racionalidad técnica.

En este sentido, la masificación de la investigación industrial a gran escala, asociada a la revalorización y concentración del capital, supuso una expansión del complejo industrial científico-editorial en la segunda mitad del siglo XX26, que no solo tecnificó, sino que mercantilizó el texto.

Ya en 1961, el físico nuclear Alvin Weinberg, al analizar el impacto de la investigación industrial a gran escala se preguntaba: “¿la Big Science está arruinando la ciencia?”. Al describir el nuevo engranaje generado por la gran expansión de la investigación industrial en la primera mitad del siglo XX, para inicios de la segunda mitad del siglo ya observaba una “enorme proliferación de escritura científica que, en gran parte, permanece sin leer”27. Sin embargo, a pesar de estas voces que alertaban tempranamente sobre los efectos de la industrialización del diálogo científico, las comunidades de distintas regiones del mundo, tanto de países enriquecidos como de países empobrecidos, transferían acríticamente sus entornos de validación y de legitimación a las corporaciones, deslegitimando sus propios escenarios de generación de consensos. Y desde un gran abanico de racionalidades científicas abrazaron durante décadas la industrialización y la mercantilización del texto que otrora fuera la arena de reflexión y de discusión colectiva.

Cuando esa racionalidad técnica, propia de la investigación industrial, se expandió a otros escenarios de investigación, la presión del capitalismo de elevar la productividad se trasladó a la producción de textos académicos, lo que llevó a una demanda de hiperpublicación de artículos científicos28,29, que vació al texto de su acción comunicativa, desarticulando las comunidades de lenguaje. En este nuevo escenario, esa expansión de la racionalidad técnica por fuera de la industria comienza a provocar un quiebre entre lo que se investiga y el valor o el sentido social de eso que se investiga. De allí que ya no fuera necesario que las y los trabajadores de las ciencias que compartían un mismo territorio llegaran a acuerdos sobre cómo interpretar ese territorio compartido y generaran acciones que permitieran mejorar las condiciones de vida en ese territorio, prácticas que eran comunes en las ciencias del siglo XIX hasta las primeras décadas del siglo XX17,30. ¿Y por qué ya no era necesario? Porque a la par de la ruptura entre el entorno y el texto producido, se produce otro quiebre entre ese texto desterritorializado y la validación científica de ese texto: ya no se requería conformar acuerdos sobre qué se consideraba científicamente válido y qué no en las propias comunidades de lenguaje, porque esa decisión se traslada a los grandes monopolios industriales científico-editoriales.

Este proceso dio origen a la concentración de los escenarios de validación con la consiguiente expansión del complejo industrial científico-editorial que, al igual que otros procesos industriales, produjo efectos contaminantes de los ecosistemas científicos: se consolidaron procesos de estratificación de las ciencias a través de indicadores de citación31, que generaron modelos jerárquicos y competitivos32,33,34,35, que desarticularon instancias colectivas y colaborativas de generación de conocimiento. La mercantilización del texto, es decir, la obtención de algún beneficio económico a partir de la publicación de un artículo en revistas industrializadas (sea como pago directo o de forma indirecta a través de otros beneficios) tuvo grandes consecuencias en las diversas racionalidades científicas.

Para el segmento asociado a la investigación industrial, el proceso de industrialización y de mercantilización del propio texto, que se da en la segunda mitad del siglo XX, fue funcional a los intereses de ciertas industrias. Para que ciertos productos o sustancias industriales puedan ingresar al mercado, se comenzó a exigir la validación científica de sus efectos a través de la realización de ensayos controlados aleatorizados36, cuyos resultados debían traducirse a un artículo científico; y solo en el caso de que ese artículo fuera aceptado y publicado en una revista científica se abrían las puertas de la comercialización. De allí que, el texto de ese artículo pasó a ser una moneda de cambio para la inyección de productos o sustancias industriales en el mercado y los altos intereses económicos depositados en la acción de hacer público el texto supuso, entre otras cosas, un aumento del fraude y de las retractaciones37,38,39,40,41. En estos entornos es donde se produjo un aumento de artículos con datos falsos, alteración de imágenes, e incluso la proliferación de las “paper mills” (fábricas de artículos) que brindan una variedad de servicios que van desde proporcionar datos de investigación fraudulentos o inventados, gestión de la venta de autorías, hasta la venta de artículos ficticios42,43. En este entorno es que surge la figura editorial de la “retractación”, figura funcional al complejo editorial científico-industrial, dado que, por un lado, la industria editorial se asegura el cobro de los costos de procesamiento del artículo o article processing charges (APC) para, luego del cobro, hacer público el fraude y, por otro, esta misma figura ha sido utilizada para retirar de circulación artículos no favorables a los intereses industriales, como el difundido caso que se dio en llamar “Séralini affair44,45.

Pero las ondas expansivas de ese proceso de industrialización y mercantilización del texto alcanzaron también a las racionalidades más reflexivas, y las consecuencias nocivas no se vinculan, en este caso, al fraude o a la figura de la retractación, sino que son mucho más profundas y se relacionan con la pérdida del sentido otorgado a la comprensión colectiva del entorno natural y social, y al texto como el objeto narrativo que traduce esa comprensión. Al instrumentalizarse el texto y disociarse de los problemas del entorno, se produce una desarticulación de aquello que Ricoeur denomina “referencia”, es decir, “su pretensión de alcanzar la realidad”16. A diferencia de la literatura de ficción o de la poesía, que admite anular la referencia a una realidad dada, la narrativa científica demanda reponer “el aquí y el ahora, determinados por la situación del discurso”16.

Para las racionalidades más reflexivas, el texto sería la traducción narrativa de una interpretación posible del entorno, que se moldea, se renueva y se actualiza en las nuevas interpretaciones que colectivamente se realicen de ese texto. Tal como señala Ricoeur, “lo dado a interpretar en un texto es una proposición de mundo16, que en las narrativas científicas se configura al momento de ajustar la interpretación del entorno a los acuerdos narrativos que esa racionalidad haya alcanzado. Pero al desarticularse las comunidades de lenguaje y transferir los escenarios de validación a las corporaciones, las racionalidades más reflexivas o críticas terminan adoptando mecanismos interpretativos de otras racionalidades, y los textos adoptan un aquí-ahora negado, es decir, un “no lugar” que, en términos de Mac Augé es ese espacio “que no puede definirse ni como espacio de identidad ni como relacional ni como histórico”46, resquebrajándose las condiciones para desencadenar procesos colectivos, asociativos, basados en la discusión y la creación de consensos.

De la industrialización a la cobotización de la experiencia interpretativa

Cuando aún no habíamos desentrañado la magnitud de los efectos que la industrialización produjo en la formación de consensos en el plano narrativo al interior de las racionalidades más reflexivas y en la propia noción de “comunidad de lenguaje”, se generaliza la incorporación de la inteligencia artificial generativa, es decir, bots con capacidad de generar interpretaciones tanto del entorno social y natural como de las tradiciones científicas y traducirlos a un lenguaje y una estructura narrativa válida para los humanos.

La “cobotización” en la industria surgió con la implantación masiva de robots colaborativos (cobots) bajo un modelo productivo basaba en la interacción de personas y máquinas47,48. Sin embargo, actualmente la “cobotización” amplió su interacción e incorporó el paradigma de la “inteligencia aumentada” o “inteligencia híbrida”, referida a la inteligencia artificial generativa potenciada en la interacción con la inteligencia humana49,50. Esta nueva “cobotización” supone la colaboración humana con un agente que puede identificar el estado de un entorno e interpretarlo, para lo cual operan modelos de aprendizaje que intentan emular la acción interpretativa humana. Este modo de aprendizaje es el que permite que las máquinas cobren autonomía, es decir, que hagan su propio proceso de aprendizaje, analizando grandes volúmenes de información sobre prácticas humanas específicas4,5,6,51,52.

En el ámbito de las ciencias, los argumentos que operarían simbólicamente para masificar la cobotización de la acción interpretativa se centrarían en la noción de “neutralidad” de la tecnología. Según Marcuse53, esa noción de la tecnología tiene su correlato en una concepción generalizada de las ciencias: su identidad y validez exceden los usos sociales que se hagan de ella. De allí que, por ejemplo, la participación de científicos y científicas en el desarrollo de productos altamente tóxicos, contaminantes o nocivos para la vida en el planeta, o incluso su participación en desarrollos tecnológicos con impactos sociales negativos queda completamente invisibilizada tras el velo de la tecnificación y de la neutralidad, que disocia el desarrollo de su aplicación social. Sin embargo, en términos de Marcuse, todo desarrollo tecnológico conlleva implícitamente un uso posible53, sobre todo si ese desarrollo se promueve y se financia desde un entorno industrial.

Cuando Habermas retoma la discusión de Marcuse con relación a la noción de Max Weber de “racionalidad formal”, señala que:

“Como la racionalidad de este tipo sólo se refiere a la correcta elección entre estrategias, a la adecuada utilización de tecnologías y a la pertinente instauración de sistemas (en situaciones dadas para fines dados), lo que en realidad hace es sustraer la trama social global de intereses en la que se eligen estrategias, se utilizan tecnologías y se instauran sistemas a una reflexión y reconstrucción racionales”.22

Sin embargo, al traer a un primer plano la trama social de intereses sustraída y los mecanismos que operan por detrás del avance tecnológico surgen algunos interrogantes: ¿la tecnología está inevitablemente asociado a la racionalidad técnica e instrumental?, ¿qué pasaría si la tecnología se generara desde racionalidades no sustentadas en el dominio y el control del mundo natural y social?

Hace cuatro décadas, el Manifiesto cyborg de Donna Haraway54 ponía en escena el híbrido máquina-organismo, y planteaba la necesidad de repensar en términos epistemológicos y políticos las relaciones sociales con la ciencia y la tecnología en el marco del capitalismo industrial. También señalaba como principal problema, que esas nuevas identidades cyborgs eran “hijos ilegítimos del militarismo y del capitalismo patriarcal”54, pero que se trataba de hijos “bastardos” cuyos padres no eran “esenciales”. Sin embargo, cuatro décadas después, esa relación se invirtió y la cobotización comenzó a generar hijos más obedientes: la inteligencia artificial de la mano de la reproducción del capital está transformando a los cyborgs -descriptos por Haraway como el “mito poderoso de resistencia”- en un insumo humano defectuoso y cuasi desechable.

Esto pone de manifiesto que las racionalidades más reflexivas no solo abandonaron la noción de “innovación” para dejarla en manos del conocimiento más instrumental, sino que abandonaron la creación de sistemas vinculados a las tecnologías “duras” que integren y privilegien las perspectivas relacionales. El campo de la salud colectiva ha producido importantes debates al respecto55,56,57,58,59 con desarrollos pioneros sobre las “tecnologías materiales” y las “tecnologías no materiales”60, que han sido retomados por perspectivas que integran las tecnologías blandas, blandas-duras y duras en un continuo a ser abordado en forma conjunta, dado que la adopción acrítica y central de las tecnologías duras impactan en los procesos relacionales y en los “saberes estructurados” que operan “en las prácticas que gobiernan los actos productivos, en los procesos de trabajo y en la capacidad de generar y gobernar nuevas modalidades de producción del cuidado”61.

Partiendo desde allí ¿podrían pensarse desarrollos tecnológicos que no estén basados en una lógica de dominio de la naturaleza y de los seres humanos? Y aquí es cuando recobran un nuevo protagonismo las palabras de Donna Haraway sobre la necesidad de repensar en términos epistemológicos y políticos las relaciones sociales con la ciencia y la tecnología en el marco del capitalismo industrial y comenzar a analizar cómo impactan estos procesos en la “conversación” que propone la salud colectiva.

Cobotización de la experiencia interpretativa de las ciencias

Desde que Christopher Sholes se asoció en 1873 con la fábrica de armas Remington para producir su prototipo de máquina de escribir, el acto de la escritura manuscrita se vio intermediado por un artefacto tecnológico62. Si bien la máquina de escribir implicó un borramiento de la grafía individual y una uniformización del texto mecanografiado, el proceso de traducir al plano narrativo una interpretación posible del entorno seguía siendo una práctica intrínsecamente humana. Para Martin Heidegger, la escritura mediada por la mecanización “degradaba la palabra”:

“La máquina de escribir arranca la escritura del ámbito esencial de la mano, es decir, del ámbito de la palabra. La palabra misma se convierte en algo ‘tecleado’. […] La escritura mecánica priva a la mano de su rango en el ámbito de la palabra escrita y degrada la palabra a un medio de comunicación. Además, la escritura mecánica proporciona esta ‘ventaja’: oculta la caligrafía y, con ello, el carácter. La máquina de escribir hace que todos parezcan iguales”.63

La cobotización de la experiencia interpretativa del mundo y de las tradiciones científicas implicaría la utilización de inteligencia artificial generativa ya no como un soporte mecánico para la estandarización de la grafía, sino para la propia generación de interpretaciones posibles del entorno, traducidas a estructuras narrativas humanamente válidas. El ChatGPT (chat generative pre-trained transformer), desarrollado por la compañía OpenAI, se basa en uno de los modelos de aprendizaje automático (machine learning), denominado aprendizaje profundo (deep learning), que hace uso de redes neuronales de múltiples capas para aprender de los datos disponibles y tomar decisiones64,65,66. En el caso del ChatGPT, el aprendizaje profundo se basa en su capacidad para comprender relaciones y patrones en grandes volúmenes de datos de entrada y generar o predecir un nuevo texto, lo que lo hace capaz de responder preguntas o indicaciones, traducir idiomas, resumir textos y responder a preguntas de una forma comparable a la de un humano66. Sin embargo, para que el modelo comprenda el contexto y el significado del texto en lenguaje natural, necesita entrenarse, lo que requiere de una gran potencia de cálculo, acuerdos corporativos que permitan obtener y nutrir al modelo con grandes volúmenes de información, y un gran volumen de horas humanas de entrenamiento, de allí la liberación gratuita para un uso globalmente generalizado.

Y es aquí donde se revierte el vínculo histórico de la humanidad con la tecnología: ya no aparece la acción humana como eje central de la experiencia interpretativa mediada por un artefacto, sino que la tecnología se nutre de una multiplicidad de experiencias humanas, que alimentan un modelo de aprendizaje profundo que deglute, concentra, monopoliza y estandariza esas experiencias para un uso corporativo, cuyo alcance aún desconocemos.

La reciente generalización del uso de la inteligencia artificial generativa en la elaboración de artículos científicos ha sido tan notable que ha llevado a la necesidad de regular la noción de autoría. La editorial Elsevier ha sido cuestionada por publicar una serie de artículos que contenían frases típicas de ChatGPT. En uno de ellos, en la introducción decía: “Sin duda, aquí hay una posible introducción para su tema:…”, en otro artículo decía: “Lo siento mucho, pero no tengo acceso a información en tiempo real ni a datos específicos de pacientes, ya que soy un modelo de lenguaje de IA”. Ambos trabajos estuvieron publicados durante varios meses y luego fueron retractados67.

Por el momento, los chatbots no son considerados entidades legales y no tienen personalidad jurídica. Tanto las editoriales científicas como otras instituciones vinculadas a la integridad de la investigación científica han afirmado “que las herramientas de IA no pueden figurar como autores de un artículo”:

“El uso de herramientas de inteligencia artificial (IA) como ChatGPT o Large Language Models en publicaciones de investigación se está expandiendo rápidamente. COPE se une a organizaciones como WAME y JAMA Network, entre otras, para afirmar que las herramientas de IA no pueden figurar como autores de un artículo. Las herramientas de IA no pueden cumplir los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo enviado. Como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses ni gestionar acuerdos de derechos de autor y licencia”.68

Editoriales como Wiley, han dado un paso más y han planteado que las herramientas de inteligencia artificial “no pueden considerarse capaces de iniciar una pieza original de investigación sin la dirección de autores humanos”, ni tampoco pueden ser capaces “del diseño de la investigación”69, entendiendo estas acciones como intrínsecamente humanas.

Sin embargo, para racionalidades más reflexivas, la explicitación de por qué la inteligencia artificial generativa no debería ser considerada como parte de la autoría debería apelar a otros fundamentos. Desde una perspectiva hermenéutica, el proceso humano de la escritura traduce una interpretación del mundo a un lenguaje y una trama narrativa que no son apuestas creativas individuales, sino que se asientan sobre acuerdos terminológicos y estructurales colectivos, entre quienes comparten ciertas formas de interpretar científicamente el mundo. Como señala David Carr, “la estructura narrativa impregna nuestra experiencia del tiempo y nuestra existencia social”70, por lo que en el acto de la escritura deberían estar presentes las huellas de la experiencia humana de la comprensión, lo que demandaría, en términos de Habermas, una “negociación de definiciones”1 de carácter colectivo que es uno de los componentes esenciales de la tarea interpretativa humana.

Así comprendida, la escritura científica ya no es una reproducción de patrones lingüísticos, sino una acción humana colectiva, polifónica, dialógica y diversa de interpretar el entorno, que demandaría un concepto formal de mundo compartido al interior de las comunidades de lenguaje, y ese concepto formal de mundo expresa la racionalidad que las comunidades ponen en acción al momento de narrar de forma escrita su propia experiencia interpretativa del mundo.

El avance de la inteligencia artificial generativa se expande sobre los cimientos creados durante décadas por la industrialización y tecnificación del texto, haciendo un uso que remite a aquello que Gadamer define como “un malentendido sobre el lenguaje”, es decir:

“…como si éste fuese un inventario contingente de palabras y frases, de conceptos, opiniones y modos de ver. El lenguaje es en realidad la única palabra cuya virtualidad nos abre la posibilidad incesante de seguir hablando […]. El lenguaje no es una convencionalidad reelaborada ni el lastre de los esquemas previos que nos aplastan, sino la fuerza generativa y creadora capaz de fluidificar una y otra vez ese material”.15

Estas líneas de Gadamer se actualizan y recobran nuevos sentidos ante el avance de los grandes modelos lingüísticos de aprendizaje profundo: el lenguaje humano “no es una convencionalidad reelaborada”15. Por lo tanto, la cobotización de la experiencia interpretativa y de su traducción dentro de racionalidades más reflexivas demandaría una puesta en valor de la escritura como acción comunicativa, de manera que la inteligencia artificial generativa se torne un instrumento que colabore en profundizar el carácter reflexivo de la comprensión humana y no a la inversa, haciendo que la experiencia humana se torne un insumo de una inteligencia artificial aumentada.

Cobotización de la validación científica

Los modelos industrializados de validación científica, en los que se define qué es científicamente válido y qué no, sustentados en la estandarización de procesos de revisión por pares, tienden a homogenizar las diversas formas de interpretar científicamente el mundo y a eliminar los rasgos de identidades colectivas situadas. Y el efecto paradójico es que las propias comunidades de lenguaje, incluso aquellas motorizadas por racionalidades más reflexivas, al transferir la validación de su producción a escenarios industrializados, reproducen imaginarios de legitimación científica que promueven despojar el texto de toda identidad. Y es en estos entornos industrializados donde se promueve la cobotización de la gestión de los procesos de revisión por pares71,72,73,74.

Mientras la revisión por pares, relacional y a escala humana, era la instancia en que las diversas comunidades ponían en acción la formación lingüística de consensos en torno a las diversas formas de comprender científicamente el mundo, la industrialización de la revisión por pares a gran escala necesita desconectar y neutralizar esos consensos situados para lograr estandarizar los procesos y homogeneizar las racionalidades legitimadas a nivel global. Y es en este sentido que Habermas retoma de Niklas Luhmann el concepto de “tecnificación del mundo de la vida”1.

Habermas diría que las comunidades de lenguaje -como las comunidades científicas que se nuclean en torno a una racionalidad común- demandan un tipo de acción comunicativa que no puede desconectarse del “contexto de saber cultural compartido, normas vigentes y motivaciones imputables, que constituye el mundo de la vida, porque tienen que servirse de los recursos que caracterizan la formación lingüística del consenso”75. Sin embargo, cuando opera la tecnificación de las acciones comunicativas, no solo se simplifica la comunicación, sino que la sustituye, desvalorizando los procesos sociales de formación de consenso y sometiéndolos al tipo de interacciones que imponen los entornos tecnificados. Como señala este autor, la tecnificación de la acción comunicativa promueve una desconexión humana de la interacción:

“Como no solamente simplifican la comunicación lingüística, sino que la sustituyen por una generalización simbólica de perjuicios y resarcimientos, el contexto del mundo de la vida en que siempre están insertos los procesos de entendimiento queda desvalorizado y sometido a las interacciones regidas por medios: el mundo de la vida ya no es necesario para la coordinación de las acciones”.75

En estos subsistemas en los que “el mundo de la vida ya no es necesario para la coordinación de las acciones”, como diría Habermas75, se produce una desconexión que genera un efecto paradójico en el componente humano de la interacción: “como un alivio de la necesidad de comunicación y una reducción de los riesgos que la comunicación comporta”75, desarticulando no solo el compromiso humano con la acción comunicativa, sino con los consensos y los valores creados por las propias comunidades, lo que explicaría en parte la baja participación de la comunidad científica en la discusión de nuevas interpretaciones del mundo de carácter colectivo.

La legitimidad para la incorporación acrítica de la inteligencia artificial generativa a los procesos de revisión por pares intenta encontrar su justificación, por un lado, en la incapacidad humana para detectar el fraude científico o para reconocer textos generados por inteligencia artificial76 y, por otro, en una especie de malestar hacia ciertas cualidades intrínsecamente humanas que comenzaron a ser consideradas negativas, como la divergencia de criterios, la subjetividad, y la diversidad de perspectivas77,78.

Sin embargo, si bien la inteligencia artificial se pondera como una solución para enfrentar la mala gestión humana y sus deficiencias, un gran cuerpo bibliográfico ya está alertando sobre el “sesgo algorítmico”, que no solo reproduciría, sino que amplificaría los sesgos humanos históricamente conformados. Algunos sistemas de inteligencia artificial pueden producir resultados que discriminen a las personas por su orientación política9, por ser parte de poblaciones históricamente desatendidas o subrepresentadas en términos sanitarios8,10,79,80, o pueden “agravar las desigualdades existentes en cuanto a estatus socioeconómico, raza, origen étnico, religión, género, discapacidad u orientación sexual para amplificarlas e incidir negativamente en las desigualdades”8.

¿Y por qué se amplifican los sesgos?, porque al alimentar los modelos de deep learning decidieron ignorar todo un cuerpo de conocimientos sobre cómo “las injusticias, la opresión y la destrucción causadas por el capitalismo, el colonialismo y el patriarcado” que nos señala Boaventura Santos81, están normalizadas e incrustadas en el lenguaje del que se nutren los grandes modelos lingüísticos de aprendizaje profundo.

Si bien existe la posibilidad de reentrenar los modelos para intentar disminuir los sesgos, los modelos actuales de deep learning se están alimentando de grandes volúmenes de datos capturados, por un lado, a través de prácticas extractivas depredadoras82,83) y, por otro, a través de acuerdos corporativos generados al interior del propio complejo industrial científico-editorial(84-87), lo que imposibilita dimensionar qué ingresa al modelo. Un ejemplo, es la reciente detección en la bibliografía científica de términos inexistentes, como el caso de “vegetative electron microscopy88,89, que pareciera ser un término técnico, cuando en realidad es una frase sin sentido que se ha convertido en un “fósil digital”:

“…un error preservado y reforzado en los sistemas de inteligencia artificial (IA) que es casi imposible de eliminar de nuestros repositorios de conocimiento. […] El auge de la IA crea oportunidades para que los errores se integren permanentemente en nuestros sistemas de conocimiento, a través de procesos que ningún actor controla por sí solo. Esto presenta desafíos tanto para las empresas tecnológicas como para los investigadores y las editoriales”.88

En este sentido, la cobotización a escala industrial de los procesos de validación científica implicaría transferir a este tipo de modelos la capacidad de definir qué es científicamente válido y qué no. Y al transferir la validación científica a esos escenarios, se desarticulan las complejas y múltiples prácticas relacionales humanas a través de las cuales las comunidades científicas solían consolidar acuerdos, desacuerdos y consensos, y admitían las tensiones propias de la coexistencia de diversas y dispares formas humanas de comprender el entorno natural y social.

Las racionalidades más reflexivas deberían asumir la relevancia de contar con sus propios entornos tecnológicos de validación, de tal manera que, tal como señala Boaventura de Sousa Santos, los diversos grupos sociales tengan la posibilidad de representar “el mundo como propio y en sus propios términos, pues solo de ese modo serán capaces de transformarlo de acuerdo con sus propias aspiraciones”81. En este sentido, Susan Leavy7 menciona que solo “quienes se ven potencialmente afectados por el sesgo tienen más probabilidades de verlo, comprenderlo e intentar resolverlo”. Por lo tanto, más que rechazar el uso de la tecnología, o de adoptarla acríticamente, se requiere asumir la necesidad de crear entornos tecnológicos inclusivos, para lo cual generar las articulaciones y los escenarios colaborativos que viabilicen su desarrollo.

A modo de cierre

La cobotización de la interpretación científica del mundo y de las instancias de validación de esas interpretaciones no emergieron por igual en todos los ecosistemas científicos, sino que se erigieron en entornos marcados por los efectos contaminantes de la industrialización y la mercantilización del texto, cuyas ondas expansivas han ido avanzando a nivel global.

Tan enredados e inmersos estamos en esta tecnificación del mundo de la vida que, a pesar de los efectos nocivos que estos procesos provocaron en la desarticulación de las comunidades de lenguaje, desde un gran abanico de racionalidades científicas abrazaron durante décadas la industrialización y la mercantilización del texto que otrora fuera la arena de reflexión y de discusión colectiva, transfiriendo sus entornos de validación y de legitimación a las corporaciones, deslegitimando y desarticulando sus propios escenarios de generación de consensos. Y sobre este contexto erosivo se erigieron los procesos de cobotización, moldeando nuevas subjetividades.

Los nuevos sujetos de esta era digital marcada por la inteligencia artificial generativa tienden a evitar el esfuerzo comunicativo que implica la discusión entre perspectivas diversas y dispares. Los gemelos digitales personales, creados y alimentados para actuar como clones personales con capacidad de interactuar en situaciones laborales y comunicacionales diversas, son uno de los tantos indicios de estas nuevas subjetividades. En su texto “Personal AI digital twins: the future of human interaction?”, Jim Spohrer se pregunta “pero ¿cómo se sentirán mis amigos y colegas al interactuar con mi gemelo digital de IA? ¿No preferirán a mi yo real? Dejando el ego de lado por un momento, la verdadera respuesta es que no necesariamente”90.

Este retroceso en la acción comunicativa entre humanos va de la mano de un retraimiento del esfuerzo que demanda la acción interpretativa del mundo. Tomar la iniciativa de comprender, en términos de Gadamer, “es lo que constituye el verdadero esfuerzo de la existencia”14; sin embargo, el componente humano de la cobotización tiende a delegar ese esfuerzo interpretativo, al punto de desarticular el compromiso humano con la acción comunicativa y con la conformación de nuevos consensos y valores al interior de las propias comunidades de diálogo.

En este contexto, la teoría crítica, al abordar los efectos de la tecnificación de las relaciones y de las acciones comunicativas humanas sobre los colectivos sociales, parte del reconocimiento de estas nuevas subjetividades para plantear la necesidad de multiplicar y legitimar escenarios en los que las racionalidades críticas y reflexivas propongan formas de cobotización en las que la racionalidad de la interacción preserve como núcleo central de preocupación las acciones comunicativas relacionales, recupere el esfuerzo crítico de seguir repensando las relaciones humanas desde una “metapresencialidad”55 anclada en un aquí y ahora situados, centrada en la mejora de las condiciones de vida del conjunto social y la disminución de las desigualdades.

AGRADECIMIENTOS

Una versión anterior de este texto fue presentado en el simposio “Teoria Crítica da Saúde Digital”, realizado en noviembre de 2024 en la Isla de Itaparica, Brasil, promovido por la Secretaria de Informação e Saúde Digital del Ministério da Saúde de Brasil, por la Associação Brasileira de Saúde Coletiva, y organizado por el Instituto de Saúde Coletiva de la Universidade Federal da Bahia, Brasil

FINANCIAMIENTO

Este trabajo se realizó sin financiamiento específico.

CONFLICTO DE INTERESES

La autora declara no tener vínculos que condicionen lo expresado en el texto y que puedan ser comprendidos como conflicto de intereses.


Referencias bibliográficas


1. Habermas J. Teoría de la acción comunicativa I: Racionalidad de la acción y racionalización social. México DF: Taurus; 2002.

2. Pool R, National Academies of Sciences, Engineering, and Medicine (U.S.) (eds.). Hurdles for AI for scientific discovery. En: AI for scientific discovery: proceedings of a workshop. Washington DC: National Academies Press; 2024.
Crossref | PubMed | Google Scholar

3. Krenn M, Pollice R, Guo SY, Aldeghi M, Cervera-Lierta A, Friederich P, et al. On scientific understanding with artificial intelligence. Nature Reviews Physics. 2022;4(12):761-769.
Crossref | PubMed | Google Scholar

4. Danks D, London AJ. Algorithmic bias in autonomous systems. En: Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence [Internet]. Melbourne: International Joint Conferences on Artificial Intelligence Organization; 2017 [citado 9 oct 2024]. p. 4691-4697. Disponible en: https://tinyurl.com/37kbyjxs.
Crossref | Google Scholar

5. Dastin J. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters [Internet]. 2018 [citado 5 jul 2023]. Disponible en: https://tinyurl.com/bde6949n.
Crossref | Google Scholar

6. Fu R, Huang Y, Singh PV. AI and Algorithmic Bias: Source, Detection, Mitigation and Implications. SSRN. 2020:3681517.
Crossref | Google Scholar

7. Leavy S. Gender Bias in Artificial Intelligence: The Need for Diversity and Gender Theory in Machine Learning. Sweden: IEEE/ACM 1st International Workshop on Gender Equality in Software Engineering; 2018. p. 14-16.
Crossref | Google Scholar

8. Panch T, Mattie H, Atun R. Artificial intelligence and algorithmic bias: implications for health systems. Journal of Global Health. 2019;9(2).
Crossref | PubMed | Google Scholar

9. Peters U. Algorithmic Political Bias in Artificial Intelligence Systems. Philosophy & Technology. 2022;35(2):25.
Crossref | PubMed | Google Scholar

10. Seyyed-Kalantari L, Zhang H, McDermott MBA, Chen IY, Ghassemi M. Underdiagnosis bias of artificial intelligence algorithms applied to chest radiographs in under-served patient populations. Nature Medicine. 2021;27(12):2176-82.
Crossref | PubMed | Google Scholar

11. Ctrl. Alt. Tim. Vol. 24 - Here is a revised version of your review with improved clarity [Internet]. 2025 [citado 5 jul 2024]. Disponible en: https://tinyurl.com/bdh4dcpm.

12. Naddaf M. AI is transforming peer review — and many scientists are worried. Nature. 2025;639(8056):852-854.
Crossref | PubMed | Google Scholar

13. Martinovich V. Scientific journals as narrative objects of the sciences. Ciência & Saúde Coletiva. 2025;30(Supl 1).
Crossref | PubMed | Google Scholar

14. Gadamer HG. Verdad y método. 11a ed. Salamanca: Ediciones Sígueme; 2005.

15. Gadamer HG. Verdad y método II. Salamanca: Ediciones Sígueme; 2006.

16. Ricœur P. Del texto a la acción. México: Fondo de Cultura Económica; 1986.

17. Martinovich V. Revistas científicas como objetos narrativos de las ciencias: los Anales de la Sociedad Científica Argentina y las conversaciones de las ciencias del último tercio del siglo XIX [Tesis de Doctorado]. Buenos Aires: Universidad Nacional de Lanús; 2025.
Crossref | Google Scholar

18. Horkheimer M. Traditionelle und kritische Theorie. Zeitschrift für Sozialforschung. 1937;6(2):245–294.
Crossref | Google Scholar

19. Horkheimer M, Marcuse H. Philosophie und kritische Theorie. Zeitschrift für Sozialforschung. 1937;6(3):625–647.
Crossref | Google Scholar

20. The Poison Gas Protocol. Industrial and Engineering Chemistry, News Edition. 1926;4(23):4.

21. Science Service. Public gets benefit of poison gas patent. Journal of Chemical Education. 1931;8(7):1395.
Crossref | Google Scholar

22. Habermas J. Ciencia y técnica como “ideología”. 5a ed. Madrid: Tecnos; 2007.

23. Biagioli M. From book censorship to academic peer review. Emergences: Journal for the Study of Media & Composite Cultures. 2002;12(1):11–45.
Crossref | Google Scholar

24. Daniel HD. Guardians of Science: Fairness and Reliability of Peer Review. Weinheim: VCH; 1993.
Crossref | Google Scholar

25. Ravetz JR. Scientific Knowledge and Its Social Problems. Clarendon Press; 1971.

26. Martinovich V. Indicadores de citación y relevancia científica: Genealogía de una representación. Dados. 2020;63(2):e20190094.
Crossref | Google Scholar

27. Weinberg AM. Impact of Large-Scale Science on the United States: Big science is here to stay, but we have yet to make the hard financial and educational choices it imposes. Science. 1961;134(3473):161–164.
Crossref | PubMed | Google Scholar

28. Angell M. Publish or Perish: A Proposal. Annals Internal Medicine. 1986;104(2):261–262.
Crossref | PubMed | Google Scholar

29. Neill US. Publish or perish, but at what cost? Journal of Clinical Investigation. 2008;118(7):2368–2368.
Crossref | PubMed | Google Scholar

30. Cook A. Academic Publications before 1940. En: Fredriksson EH, (ed). A century of science publishing: A collection of essays. Amsterdam: IOS Press; 2001. p. 14–24.
Crossref | Google Scholar

31. Alberts B. Impact factor distortions. Science. 2013;340(6134): 787–787.
Crossref | PubMed | Google Scholar

32. Adler R, Ewing J, Taylor P. Citation statistics: International Mathematical Union, International Council of Industrial and Applied Mathematics, Institute of Mathematical Statistics [Internet]. 2008 [citado 29 sep 2024]. Disponible en: https://tinyurl.com/yskjsw38.

33. Camargo Jr. KR. Public health and the knowledge industry. Revista de Saúde Pública. 2009;43(6):1078–283.
Crossref | PubMed | Google Scholar

34. Schekman R. How journals like Nature, Cell and Science are damaging science. The Guardian [Internet]. 2013 [citado 5 oct 2024]; Disponible en: https://tinyurl.com/yc5z2d9h.

35. Renan Costa KA, Silveira Santo T, Nara Macedo B, Petroianu A. Citação de artigos nacionais: a (des)valorização dos periódicos brasileiros. Revista do Colégio Brasileiro de Cirurgiões. 2012;39:421–4.
Crossref | PubMed | Google Scholar

36. Bothwell LE, Podolsky SH. The emergence of the randomized, controlled trial. New England Journal of Medicine. 2016;375(6):501-504.
Crossref | PubMed | Google Scholar

37. Fassi G. El plan de publicaciones de la industria farmacéutica y su contribución al proceso de farmacologización de la sociedad: aproximación a estrategias, prácticas y actores presentes en la bibliografía científica. Buenos Aires: Universidad Nacional de Lanús; 2023.

38. Carlisle JB. Data fabrication and other reasons for non-random sampling in 5087 randomised, controlled trials in anaesthetic and general medical journals. Anaesthesia. 2017;72(8):944-952.
Crossref | PubMed | Google Scholar

39. Steen RG. Retractions in the scientific literature: is the incidence of research fraud increasing? Journal of Medical Ethics. 2011;37(4):249-253.
Crossref | PubMed | Google Scholar

40. Freijedo-Farinas F, Ruano-Ravina A, Pérez-Ríos M, Ross J, Candal-Pedreira C. Biomedical retractions due to misconduct in Europe: characterization and trends in the last 20 years. Scientometrics. 2024;129(5):2867–2882.
Crossref | Google Scholar

41. Lisberger SG. Sound the alarm: fraud in neuroscience. Cerebrum. 2013:6. PMDI: 23847713.

42. Else H. Multimillion-dollar trade in paper authorships alarms publishers. Nature. 2023;613(7945):617-618.
Crossref | PubMed | Google Scholar

43. Van Noorden R. How big is science’s fake-paper problem? Nature. 2023;623(7987):466-467.
Crossref | PubMed | Google Scholar

44. Fagan J, Traavik T, Bøhn T. The Seralini affair: degeneration of Science to Re-Science? Environmental Sciences Europe. 2015;27(1):19.
Crossref | Google Scholar

45. Loening UE. A challenge to scientific integrity: a critique of the critics of the GMO rat study conducted by Gilles-Eric Séralini et al. (2012). Environmental Sciences Europe. 2015;27(1):13.
Crossref | Google Scholar

46. Augé M. Los “no lugares”: espacios del anonimato. Barcelona: Gedisa; 2000.

47. Osika G. Humanistic and Social Dimensions of Cobotization in the Context of Implementation Industry 5.0. Scientific Papers of Silesian University of Technology Organization & Management. 2022;165(165):259-274.
Crossref | Google Scholar

48. Wierzbowski P. Cobotization as a key element in the functioning of smart factories and a next step in the automation of logistic processes. Research Journal of the University of Gdańsk. 2019;82:171-183.
Crossref | Google Scholar

49. Jasińska K, Lewicz M, Rostalski M. Digitization of the enterprise - prospects for process automation with using RPA and GPT integration. Procedia Computer Science. 2023;225(4):3243-3254.
Crossref | Google Scholar

50. Cevasco L, Corvalán JG, Le Fevre Servini EM. Artificial Intelligence and Work: Building a New Employment Paradigm [Internet]. Buenos Aires: Astrea; 2019 [citado 5 oct 2024]. Disponible en: https://tinyurl.com/2un2ydt4.

51. Borboni A, Reddy KVV, Elamvazuthi I, AL-Quraishi MS, Natarajan E, Azhar Ali SS. The Expanding Role of Artificial Intelligence in Collaborative Robots for Industrial Applications: A Systematic Review of Recent Works. Machines. 2023;11(1):111.
Crossref | Google Scholar

52. Das S, Dey A, Pal A, Roy N. Applications of Artificial Intelligence in Machine Learning: Review and Prospect. International Journal of Computer Applications. 2015;115(9):31-41.
Crossref | Google Scholar

53. Marcuse H. El hombre unidimensional. Barcelona: Ariel; 1984.

54. Haraway D. Manifiesto cyborg: ciencia, tecnología y feminismo socialista a finales del siglo XX. Titivillus; 2019.

55. Almeida Filho N. Metapresentiality: a foundational concept for a critical theory of digital health. Salud Colectiva. 2023;19:e4655.
Crossref | PubMed | Google Scholar

56. Ayres JRCM. Cuidado: tecnologia ou sabedoria prática. Interface. 2000;4(6):117–120.
Crossref | Google Scholar

57. Ayres JRCM. Acerca del riesgo: Para comprender la epidemiología. Remedios de Escalada: De la UNLa - Universidad Nacional de Lanús; 2024.
Crossref | Google Scholar

58. Merhy EE. Um ensaio sobre o médico e suas valises tecnológicas: contribuições para compreender as reestruturações produtivas do setor saúde. Interface. 2000;4:109-116.
Crossref | Google Scholar

59. Schraiber LB. El médico y la medicina: autonomía y vínculos de confianza en la práctica profesional del siglo XX. Remedios de Escalada: De la UNLa - Universidad Nacional de Lanús; 2019.

60. Gonçalves RBM. Tecnologia e organização social das práticas de saúde: características tecnológicas de processo de trabalho na rede estadual de centros de saúde de São Paulo. São Paulo: HUCITEC-ABRASCO; 1994.

61. Merhy EE. Salud: cartografía del trabajo vivo. Remedios de Escalada: De la UNLa - Universidad Nacional de Lanús; 2021.
Crossref | Google Scholar

62. Lyons M. El siglo de la máquina de escribir. Buenos Aires: Ampersand; 2023.

63. Heidegger M. Parmenides. Indiana: Indiana University Press; 1992.

64. Benuwa BB, Zhan YZ, Ghansah B, Wornyo DK, Kataka FB. A Review of Deep Machine Learning. International Journal of Engineering Research in Africa. 2016;24:124-136.
Crossref | Google Scholar

65. Bhatia P. ChatGPT for academic writing: A game changer or a disruptive tool? Journal of Anaesthesiology Clinical Pharmacology. 2023;39(1):1-2.
Crossref | PubMed | Google Scholar

66. Hashana AMJ, Brundha P, Ahamed Ayoobkhan MU, S F. Deep Learning in ChatGPT - A Survey. En: 2023 7th International Conference on Trends in Electronics and Informatics (ICOEI) [Internet]. 2023 [citado 24 oct 2024]. p. 1001-1005. Disponible en: https://tinyurl.com/sad845nh.
Crossref | Google Scholar

67. Crotty D. The Scholarly Kitchen: The Latest “Crisis” - Is the Research Literature Overrun with ChatGPT- and LLM-generated Articles? [Internet]. 2024 [citado 24 oct 2024]. Disponible en: https://tinyurl.com/yc7smj89.

68. Committee on Publication Ethics (COPE). Authorship and AI tools [Internet]. 2023 [citado 6 oct 2024]. Disponible en: https://tinyurl.com/4bde55fw.

69. Wiley. Best Practice Guidelines on Research Integrity and Publishing Ethics [Internet]. 2024 [citado 6 oct 2024]. Disponible en: https://tinyurl.com/4pnmsx8c.

70. Carr D. Tiempo, narrativa e historia. Buenos Aires: Prometeo; 2015.

71. Martinovich V, Drucaroff L. ¿Qué sentirías si un robot realizara acciones en tu nombre? El caso de Artificial Intelligence Review Assistant (AIRA) y la cobotización del proceso de revisión por pares. SciELO Preprints; 2023.
Crossref | Google Scholar

72. Thelwall M. Artificial Intelligence, Automation and Peer Review. 2019 [citado 4 jul 2024]. Disponible en: https://tinyurl.com/5f3jf38j.

73. Frontiers. Artificial Intelligence to help meet global demand for high-quality, objective peer-review in publishing 2 [Internet]. Frontiers Science News. 2020 [citado 8 oct 2024]. Disponible en: https://tinyurl.com/yb5jusx8.

74. Ghosal T. Exploring the implications of artificial intelligence in various aspects of scholarly peer review. Bulletin of IEEE Technical Committee on Digital Libraries. 2019;15(1).

75. Habermas J. Teoría de la acción comunicativa II: Crítica de la razón funcionalista. México DF: Taurus; 2002.

76. Macklon N, Garcia-Velasco J. ChatGPT and scientific publications: friend or foe? Reproductive BioMedicine Online. 2023;47(1):1-2.
Crossref | PubMed | Google Scholar

77. Cole S, Cole JR, Simon GA. Chance and Consensus in Peer Review. Science. 1981;214(4523):881-886.
Crossref | PubMed | Google Scholar

78. Björk BC, Solomon D. The publishing delay in scholarly peer-reviewed journals. Journal of Informetrics. 2013;7(4):914-923.
Crossref | Google Scholar

79. Ibrahim H, Liu X, Zariffa N, Morris AD, Denniston AK. Health data poverty: an assailable barrier to equitable digital health care. The Lancet Digital Health. 2021;3(4):e260-e265.
Crossref | PubMed | Google Scholar

80. Lovejoy CA, Arora A, Buch V, Dayan I. Digital Technology: Key considerations for the use of artificial intelligence in healthcare and clinical research. Future Healthcare Journal. 2022;9(1):75-78.
Crossref | PubMed | Google Scholar

81. Santos BS. O Fim do Império Cognitivo - A afirmação das epistemologias do sul. Belo Horizonte: Autêntica; 2019.

82. Couldry N, Mejias UA. Data Colonialism: Rethinking Big Data’s Relation to the Contemporary Subject. Television & New Media. 2018;20(4):336-349.
Crossref | Google Scholar

83. Grynbaum MM, Mac R. The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work. The New York Times [Internet]. 2023 [citado 24 oct 2024]. Disponible en: https://tinyurl.com/4tar2vxm.

84. Basu S. Academic authors alarmed over Taylor & Francis and Microsoft AI deal [Internet]. 2024 [citado 24 oct 2024]. Disponible en: https://tinyurl.com/52d2j8j9.

85. Battersby M, The Bookseller. Academic authors “shocked” after Taylor & Francis sells access to their research to Microsoft AI [Internet]. 2024 [citado 24 oct 2024]. Disponible en: https://tinyurl.com/jjyw63vc.

86. OpenAI. Partnership with Axel Springer to deepen beneficial use of AI in journalism [Internet]. 2023 [citado 23 oct 2024]. Disponible en: https://tinyurl.com/372w7659.

87. OpenAI. A landmark multi-year global partnership with News Corp [Internet]. 2024 [citado 23 oct 2024]. Disponible en: https://tinyurl.com/u93aukds.

88. Snoswell AJ, Witzenberger K, Masri RE. A weird phrase is plaguing scientific papers – and we traced it back to a glitch in AI training data [Internet]. The Conversation. 2025 [citado 19 ago 2025]. Disponible en: https://tinyurl.com/4d7bnp3k.
Crossref | Google Scholar

89. Joelving F. As a nonsense phrase of shady provenance makes the rounds, Elsevier defends its use [Internet]. Retraction Watch; 2025 [citado 19 ago 2025]. Disponible en: https://tinyurl.com/3e2sjute.

90. Spohrer J. Personal AI digital twins: the future of human interaction? [Internet]. EIT Digital. 2024 [citado 24 oct 2024]. Disponible en: https://tinyurl.com/ynybjnvy.