Dando forma a un futuro impulsado por la inteligencia artificial
Descubra cómo abordar la desinformación y los errores críticos, al tiempo que se garantiza la precisión, puede generar confianza en las herramientas de IA, lo que conduce a un futuro más inteligente y seguro.

Actitudes hacia la IA: Capítulo 3
Si bien la IA tiene un potencial inmenso, persisten importantes preocupaciones sobre la desinformación, los errores críticos y la dependencia excesiva. Garantizar la precisión y la transparencia es fundamental para generar confianza en las herramientas de IA. Obtenga más información sobre las preocupaciones y los factores de confianza relacionados con la IA entre investigadores y clínicos.
Dando forma a un futuro impulsado por la inteligencia artificial
Comprender no solo sus preocupaciones, sino también los factores que generan la confianza de los investigadores y los clínicos en las herramientas de IA y su comodidad al utilizarlas, puede ayudar a los desarrolladores de tecnología a crear mejores herramientas y a las instituciones a maximizar sus beneficios.
El 94 % cree que la IA podría utilizarse para difundir información errónea.
El 86 % teme que la IA pueda provocar errores críticos o percances.
El 81 % cree que la IA erosionará en cierta medida el pensamiento crítico, y el 82 % de los médicos expresa su preocupación por que los médicos dependan en exceso de la IA para tomar decisiones clínicas.
El 58 % afirma que entrenar el Modelo para que sea preciso, moral y no perjudicial (Seguridad) aumentaría considerablemente su confianza en esa Herramienta.
Saber que la información que utiliza el Modelo está actualizada fue lo que obtuvo la clasificación más alta entre los encuestados para aumentar su comodidad al utilizar una Herramienta de IA.
Casi todos los encuestados están preocupados por que la IA se utilice para difundir información errónea, una preocupación que se identificó en la encuesta global «Confidence in Research» de Elsevier,56 así como por que provoque errores críticos o contratiempos.
La precisión de los datos y la actualización de los modelos y la información contribuirían a aumentar la confianza entre los usuarios.
Apenas estamos en los inicios de lo que la IA puede lograr. Cualesquiera que sean las limitaciones que tenga hoy en día, desaparecerán antes de que nos demos cuenta.2
Bill Gates
Explorar las inquietudes de los usuarios
El potencial de la GenAI se hace más evidente a medida que la tecnología avanza, al igual que sus posibles inconvenientes. Las herramientas de GenAI pueden ser muy potentes, no solo para automatizar tareas estructuradas y acelerar el análisis y la visualización de datos, sino también para desarrollar hipótesis y ayudar en decisiones clínicas.
Cuando hay mucho en juego, como ocurre en el tratamiento de pacientes, es fundamental que la tecnología sea responsable, ética y transparente. La preocupación por la pérdida del elemento humano es especialmente elevada en lo que respecta al uso de la IA en la atención sanitaria, y la mayoría de los estadounidenses cree que podría perjudicar la relación entre el paciente y el clínico.18
En una encuesta de Pew Research, el 60 % de los adultos afirmó que se sentiría incómodo si su proveedor de atención sanitaria utilizara la IA para su atención médica, y las opiniones estaban divididas en cuanto a los resultados de salud: el 38 % esperaba que fueran mejores y el 33 % peores.18
Esto plantea un dilema tanto para las empresas tecnológicas que desarrollan la tecnología como para las que la utilizan: necesitan actuar con rapidez para adaptarse a los cambios y aprovechar el potencial de innovación, pero también deben ser cautelosas ante los riesgos, muchos de los cuales aún se desconocen.10
Comprender las preocupaciones de los usuarios (y usuarios potenciales) en torno a la GenAI es un paso importante para desarrollar herramientas con riesgos minimizados. Algunas de las mayores preocupaciones se centran en la desinformación y los errores.
Preocupaciones de los investigadores y los clínicos
En general, el 94 % de los encuestados (el 95 % de los investigadores y el 93 % de los clínicos) cree, en cierta medida, que la IA se utilizará para difundir información errónea en los próximos dos a cinco años.
Estas herramientas aún no se basan en evidencia científica, no proporcionan referencias y aún no son confiables.
Participante en la encuesta, médico, Brasil
La tecnología GenAI puede utilizarse para producir información errónea y, si se entrena con estos datos, puede utilizar la información errónea como base para generar resultados que considera verdaderos. Como señala Ofcom, «los modelos de IA generativa no son capaces de determinar por sí mismos la veracidad o exactitud de la información».47 Los usuarios no siempre son conscientes de la información errónea que recopilan, como en el caso de un abogado citado por utilizar jurisprudencia ficticia en un escrito legal que redactó con ayuda de GenAI.30
Esto hace que la gobernanza y la regulación de la GenAI sean aún más importantes, y las instituciones tienen un papel que desempeñar para mitigar el uso intencionado de la GenAI con el fin de producir desinformación. Como se señala en «Perspectiva desde arriba: opiniones de líderes académicos y Financiadores sobre los retos futuros», los líderes académicos están preocupados por cómo mitigar riesgos como la falsificación de los resultados de la investigación.54
La mayoría de los investigadores y clínicos (86 %) también están preocupados por la posibilidad de que se produzcan errores críticos o percances (accidentes), y el 14 % no espera que esto ocurra en absoluto.
Sin embargo, la investigación anterior sugiere una especial preocupación por los errores en la atención sanitaria derivados del uso de la IA, ya que más de tres cuartas partes de los clínicos estadounidenses consideran importante que las empresas tecnológicas y los gobiernos gestionen cuidadosamente las aplicaciones de IA en el diagnóstico de enfermedades.26
Me preocupa mucho que la IA generativa pueda provocar errores clínicos que perjudiquen a los pacientes. Estas máquinas no piensan, reconocen patrones para dar respuestas seguras pero sin sentido. Eso es peligroso a la hora de tomar decisiones. Los abogados ya se encuentran en serios problemas legales por intentar hacer pasar documentos generados por IA generativa como su propio trabajo.
Participante en la encuesta, médico, EE. UU.

Fig. 17. Pregunta: Pensando en el impacto que la IA tendrá en la sociedad y en su trabajo, ¿en qué medida cree que en los próximos 2 a 5 años...? En gran medida, en cierta medida, en absoluto. n=2829
Cuando la tecnología se une a la humanidad
Otras preocupaciones se refieren al impacto que GenAI podría tener en las personas y en su forma de pensar y comportarse. En el estudio actual, el 81 % de los encuestados cree que la IA mermará la capacidad de pensamiento crítico de los seres humanos. De hecho, se sugiere que existe el riesgo de que la IA afecte la forma de pensar de los estudiantes, lo cual debe tenerse en cuentaen cualquier cambio que se realice en el plan de estudios.55
Más de cuatro de cada cinco médicos (82 %) piensan que el uso de la IA puede hacer que los médicos dependan en exceso de la tecnología para tomar decisiones clínicas. Esta preocupación se reflejó en la edición sobre educación de Clinician of the Future, en la que más de la mitad (56 %) de los estudiantes temían los efectos negativos que la IA puede tener en la comunidad médica.35
El 79 % de los encuestados está preocupado por la alteración social, por ejemplo, por el desempleo de un gran número de personas a causa de la inteligencia artificial.
Las preocupaciones éticas también son importantes: en la encuesta actual, la mayoría de los encuestados (85 %) tienen al menos algunas preocupaciones, mientras que solo el 11 % informa no tener ninguna preocupación sobre las implicaciones éticas de la IA en su área de trabajo y el 11 % informa tener preocupaciones fundamentales. Esta cifra es más elevada en Europa (17 %) y Norteamérica (14 %) (véanse los resultados detallados en el libro de datos).

Fig. 18. Pregunta: ¿En qué medida, si es que lo hace, le preocupan las implicaciones éticas de la IA (incluida la IA generativa) en su área de trabajo?
Factores que influyen en la confianza en las herramientas de IA
Cuando se combinan, el potencial que tiene la GenAI para generar desinformación, alucinaciones, trastornos sociales e impacto en la seguridad laboral, muchos ven una tecnología en la que es difícil confiar.25 Sin embargo, las encuestas muestran que la mayoría de las personas sí confían en esta tecnología.
El Instituto de Investigación Capgemini descubrió que el 73 % de los consumidores confía en el contenido creado por GenAI.20 En concreto, el 67 % creía que podía beneficiarse del uso de GenAI para el diagnóstico y el asesoramiento médico, y el 63 % se mostraba entusiasmado con la perspectiva de que GenAI impulsara el descubrimiento de fármacos.
Actualmente desconfío de todas las herramientas de IA. Se necesitaría mucha transparencia, junto con ejemplos concretos del funcionamiento de la Herramienta, para convencerme de que es confiable. Mi carrera y mi integridad científica son demasiado valiosas como para entregarlas a nadie ni a nada. Además, no tengo la protección de la titularidad, así que cualquier error me costaría mi carrera.
Participante en la encuesta, investigador, Canadá
¿Qué hace que los investigadores y los clínicos confíen en la IA?
Hay margen de mejora en lo que respecta a la confianza. Los participantes en la encuesta actual comparten sus opiniones sobre cómo generar confianza en las herramientas de IA, y las opiniones de los investigadores y los clínicos son similares en todos los factores.
Más de la mitad (58 %) de los encuestados afirma que entrenar el modelo para que sea preciso, moral y no perjudicial aumentaría considerablemente su confianza en esa Herramienta.
Algunos de los otros factores que, según los encuestados, aumentarían su confianza en las herramientas de IA están relacionados con la calidad y la confiabilidad. Por ejemplo, el 57 % afirma que utilizar únicamente contenido de alta calidad revisado por pares para entrenar el modelo aumentaría considerablemente su confianza, mientras que algo más de la mitad (52 %) afirma que entrenar el modelo para obtener resultados muy coherentes (resultados de alta calidad del modelo) aumentaría considerablemente su confianza.
La transparencia y la seguridad también son factores importantes. Para el 56 % de los encuestados, citar referencias por defecto (transparencia) aumentará considerablemente la confianza en las herramientas de IA. Mantener la confidencialidad de la información introducida es un factor que aumenta la confianza para el 55 %, al igual que el cumplimiento de cualquier ley que regule el desarrollo y la implementación (legalidad) para el 53 %.

Fig. 19. Pregunta: ¿En qué medida, si es que lo hacen, los siguientes factores aumentarían su confianza en las herramientas que utilizan IA generativa? Escala: Aumenta considerablemente mi confianza, Aumenta ligeramente mi confianza, No tiene ningún impacto en mi nivel de confianza.
La importancia del acceso
Las diferencias regionales en muchas preguntas de la encuesta resaltan la importancia del acceso en la implementación de la IA a nivel mundial.
Los encuestados de países con ingresos medios-bajos son significativamente más propensos que los de países con ingresos altos a pensar que la IA aumentará la colaboración, con un 90 % y un 65 %, respectivamente. También son más propensos a pensar que la IA será transformadora, con un 32 % frente a la media mundial del 25 %.
Sin embargo, los encuestados son menos propensos a haber utilizado la IA con fines laborales (un 21 % frente a la media del 31 %), quizá debido a problemas de acceso. Mientras que el 26 % de los encuestados a nivel mundial menciona la falta de presupuesto como una limitación para utilizar la IA, esta cifra aumenta hasta el 42 % en los países de ingresos medios-bajos.
Acciones para un futuro impulsado por la inteligencia artificial
Los participantes en la encuesta actual comparten claramente la opinión de que las herramientas de IA que utilizan ahora y que utilizarán en el futuro para ayudar en la investigación y el trabajo clínico deben ser responsables, éticas y transparentes. Teniendo esto en cuenta, la información, el consentimiento y la calidad son factores críticos que deben considerarse desde diferentes ángulos.
Proveedores de tecnología GenAI
Mejora la precisión y la confiabilidad
Como vimos en el capítulo 2 (véase la figura 13 en la página 27), los investigadores y los clínicos esperan que las herramientas basadas en GenAI se basen únicamente en fuentes fiables y de alta calidad (71 %). Para ayudar a esto, los desarrolladores deben trabajar para garantizar la confiabilidad, la precisión e imparcialidad de los conjuntos de datos utilizados para entrenar las herramientas de GenAI. Para minimizar el sesgo, se podrían aplicar técnicas avanzadas de PLN para comprender la intención de los usuarios y obtener resultados más relevantes.20 Se deben continuar los esfuerzos para minimizar el riesgo de alucinaciones.
Aumentar la transparencia
Los encuestados esperan que se les informe si las herramientas que utilizan dependen de GenAI (81 %) y desearían tener la opción de desactivar esta funcionalidad (75 %). En línea con su expectativa de que debería ser posible elegir si activar la funcionalidad de IA, el 42 % de los encuestados preferiría que la IA se proporcionara como un módulo independiente, mientras que el 37 % desearía que se llevara a cabo la integración en un producto.
Todas las tecnologías emergentes, incluida la IA, tienen ventajas y desventajas. Es esencial seguir desarrollando y regulando estas tecnologías, con el objetivo de obtener los máximos beneficios.
Participante en la encuesta, investigador, Canadá
Los proveedores de soluciones deben ser claros sobre los conjuntos de datos utilizados y garantizar la protección de la propiedad intelectual y los derechos de autor. La funcionalidad GenAI debe estar claramente etiquetada o indicada de alguna otra forma, idealmente con la posibilidad de que los usuarios puedan activarla y desactivarla.
Fortalecer la seguridad y la protección
A medida que se desarrollan las regulaciones y las políticas, las empresas tecnológicas tienen un papel que desempeñar para garantizar la seguridad de sus herramientas de GenAI, lo que incluye una gobernanza sólida y la supervisión humana.
Dada la importancia de la privacidad y la seguridad de los datos, los desarrolladores podrían ir más allá de la normativa para garantizar que sus herramientas sean seguras para los usuarios, aumentando así la confianza.

Fig. 20. Pregunta: ¿Preferirías que cualquier funcionalidad de IA generativa incluida en un producto que ya utilizas fuera...?

Instituciones que emplean a investigadores y clínicos
Establecer políticas y planes y comunicarlos con claridad
Como hemos visto, numerosas organizaciones están trabajando en políticas, directrices y planes para la integración de la GenAI en sus operaciones. Sin embargo, tal y como indicaron los encuestados, muchos desconocen los planes de sus instituciones, incluidas las restricciones sobre el uso de la GenAI.
Además de establecer directrices sobre GenAI y adoptar medidas para desarrollar una estrategia para la organización, comunicar esas acciones y planes a los investigadores y clínicos ayudaría a mitigar los riesgos y maximizar los beneficios.
Desarrollar la gobernanza y la experiencia
Las instituciones pueden contribuir a aumentar la comodidad y la confianza de los investigadores y los clínicos en la GenAI garantizando que las herramientas que eligen se supervisen de manera que se identifiquen y reduzcan los sesgos y los riesgos.
Cualquier estrategia de GenAI debe incluir una estructura de gobernanza sólida, que cuente con personas con experiencia en la tecnología y su área de aplicación.
Proporcionar capacitación y capacidad
A pesar de su rápido aumento en cuanto a conocimiento y uso, GenAI sigue siendo una tecnología relativamente joven.
A medida que aumente el uso de la GenAI, los investigadores y los clínicos tendrán que dedicar tiempo a aprender cómo maximizar sus beneficios. Investigaciones previas con clínicos han destacado la posible carga que supone la IA debido al tiempo que requiere su aprendizaje.34
Para garantizar que la tecnología sea parte de la solución y no del problema, las instituciones podrían identificar formas de proporcionar a los investigadores y clínicos el tiempo y un espacio seguro para explorar la GenAI.
Garantizar el acceso
La percepción de la IA es notablemente más positiva en los países de ingresos medios-bajos, pero su uso entre investigadores y clínicos es limitado debido a las restricciones presupuestarias.
Las instituciones son cada vez más conscientes de la importancia de la inclusión y del papel que desempeña la accesibilidad en ella. A medida que el uso de la IA se generaliza cada vez más a nivel mundial, será cada vez más necesario abordar las desigualdades en el acceso a esta tecnología, especialmente en el ámbito de la colaboración internacional. Para ayudar a garantizar un mejor acceso a la tecnología de IA a nivel mundial, las instituciones podrían considerar la IA como parte de su estrategia más amplia, con el fin de fomentar la colaboración y garantizar una mayor diversidad a nivel institucional y de proyectos.
Más información sobre las actitudes hacia la IA
Referencias
2. Bill Gates. La era de la IA ha comenzado. Notas de Gates. 21 de marzo de 2023. https://www.gatesnotes.com/The-Age-of-AI-Has-Begun
10. Perspectivas de MIT Technology Review. La gran aceleración: perspectivas de los directores de informática sobre la IA generativa. 2023. https://www.databricks.com/sites/default/files/2023-07/ebook_mit-cio-informe-sobre-la-IA-generativa.PDF
18. Michelle Faverio y Alec Tyson. Lo que dicen los datos sobre la opinión de los estadounidenses sobre la inteligencia artificial. Pew Research Center. 21 de noviembre de 2023. https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/
20. Instituto de Investigación Capgemini. Por qué a los consumidores les encanta la IA generativa. 7 de junio de 2023. https://prod.ucwe.capgemini.com/wp-content/uploads/2023/06/GENERATIVE-AI_Final_WEB_060723.PDF
25. Instituto Portulans. Índice de Preparación de Redes 2023. https://download.networkreadinessindex.org/reports/nri_2023.PDF
26. Elsevier. Clinician of the Future 2023. Página 27.
30. Maryam Alavi y George Westerman. Cómo la IA generativa transformará el trabajo intelectual. Harvard Business Review. 7 de noviembre de 2023. https://hbr.org/2023/11/how-IA-generativa will transform knowledge work
34. Elsevier. Clinician of the Future 2023. Página 18.
35. Elsevier. Clinician of the Future 2023, edición educativa. Página 23.
47. Ofcom. Tecnología del futuro y alfabetización mediática: comprender la IA generativa. 22 de febrero de 2024. https://www.ofcom.org.uk/__data/assets/PDF_file/0033/278349/future-tech-media-literacy-understanding-GenAI.pdf
54. Elsevier. Perspectiva desde arriba: opiniones de líderes académicos y Financiadores sobre los retos que se avecinan. Marzo de 2024. Páginas 37 y 48. https://www.elsevier.com/academic-and-government/informe sobre los desafíos de los líderes académicos 2024
55. Elsevier. Clinician of the Future 2023, edición educativa. Página 24.
56. Confidence in Research. 2022. Página 9. https://confidenceinresearch.elsevier.com/



