Muy buen artículo, sobre todo porque bajas el debate al terreno de la responsabilidad y no solo al de la precisión técnica.
En mi caso reciente lo viví de forma muy práctica. Hace poco tuve una gastroenteritis fuerte, con vómitos y dolor abdominal. A las dos de la mañana no tienes a tu médico al teléfono, así que pregunté dudas a la IA para orientarme y entender qué podía estar pasando. Me ayudó a ordenar ideas y a no entrar en pánico. Pero por la mañana fui a que me viesen para asegurarme de que no había un tránsito intestinal detenido ni nada más serio. Eso no lo mide un chatbot, eso lo valora un profesional explorándote.
Para mí ahí está la clave, la IA puede ayudarte a entender mejor lo que te pasa, a formular mejores preguntas, a no ser un paciente pasivo pero el sentido común de acudir al médico cuando toca no lo sustituye ninguna herramienta.
También creo que el paciente tiene que implicarse más en su propia salud. En mi experiencia, si me hubiera limitado a lo básico, probablemente solo me mirarían el LDL y poco más. Al formarme por mi cuenta, leyendo artículos científicos, escuchando podcasts y usando la IA para comprender mejor conceptos, he podido pedir en analíticas marcadores que nunca me habrían solicitado de rutina y que me permiten evaluar mi salud con más criterio.
Lo peligroso no es usar IA, lo peligroso es no aprender nada y depender ciegamente de una sola fuente, sea un algoritmo o un profesional. El futuro, seguramente no es sustitución, es pacientes más informados, médicos responsables y herramientas bien gobernadas.
Creo que esa es la idea del artículo: poner en contexto la IA y reconocer sus valores intrínsecos sin caer en la necedad de la idolatría de la sustitución. Pero su aportación con un caso particular me ha dado un input extra. Creo que mi comprensión lectora es buena pero un buen ejemplo me lleva a interpretar —sentir— un texto con otra profundidad. Así que gracias a las dos.
No tenemos ni las más remota idea de dónde va a estar esta tecnología en 5 años. Creo que ya lo sabremos cuando lleguemos, lo demás es especulación (la que agiganta y la que minimiza).
Qué buen artículo. Me encanta leerte porque conectas tus textos con material histórico, científico y de actualidad.
No es el caso, pero personalmente, reconozco que desde octubre pasado que me partí la falange distal en el trabajo, y debido a la mala profesionalidad de la sanitaria que me atendió, no he parado de preguntar al chat gpt; ¿Por qué la Mutua me manda a trabajar con el dedo roto?¿Por qué se me ha quedado torcido hacia abajo y no va hacia atrás aunque lo fuerce? ¿Por qué la mutua normaliza mi dedo deformado? Y ya el dichoso chat ya sabe que trabajo en una fundición de acero, con maquinaria pesada y así recopila información mía, pero mi dedo quedó mal...
Muy buen artículo, sobre todo porque bajas el debate al terreno de la responsabilidad y no solo al de la precisión técnica.
En mi caso reciente lo viví de forma muy práctica. Hace poco tuve una gastroenteritis fuerte, con vómitos y dolor abdominal. A las dos de la mañana no tienes a tu médico al teléfono, así que pregunté dudas a la IA para orientarme y entender qué podía estar pasando. Me ayudó a ordenar ideas y a no entrar en pánico. Pero por la mañana fui a que me viesen para asegurarme de que no había un tránsito intestinal detenido ni nada más serio. Eso no lo mide un chatbot, eso lo valora un profesional explorándote.
Para mí ahí está la clave, la IA puede ayudarte a entender mejor lo que te pasa, a formular mejores preguntas, a no ser un paciente pasivo pero el sentido común de acudir al médico cuando toca no lo sustituye ninguna herramienta.
También creo que el paciente tiene que implicarse más en su propia salud. En mi experiencia, si me hubiera limitado a lo básico, probablemente solo me mirarían el LDL y poco más. Al formarme por mi cuenta, leyendo artículos científicos, escuchando podcasts y usando la IA para comprender mejor conceptos, he podido pedir en analíticas marcadores que nunca me habrían solicitado de rutina y que me permiten evaluar mi salud con más criterio.
Lo peligroso no es usar IA, lo peligroso es no aprender nada y depender ciegamente de una sola fuente, sea un algoritmo o un profesional. El futuro, seguramente no es sustitución, es pacientes más informados, médicos responsables y herramientas bien gobernadas.
Creo que esa es la idea del artículo: poner en contexto la IA y reconocer sus valores intrínsecos sin caer en la necedad de la idolatría de la sustitución. Pero su aportación con un caso particular me ha dado un input extra. Creo que mi comprensión lectora es buena pero un buen ejemplo me lleva a interpretar —sentir— un texto con otra profundidad. Así que gracias a las dos.
Muy buen artículo. Genial.
No tenemos ni las más remota idea de dónde va a estar esta tecnología en 5 años. Creo que ya lo sabremos cuando lleguemos, lo demás es especulación (la que agiganta y la que minimiza).
Qué buen artículo. Me encanta leerte porque conectas tus textos con material histórico, científico y de actualidad.
No es el caso, pero personalmente, reconozco que desde octubre pasado que me partí la falange distal en el trabajo, y debido a la mala profesionalidad de la sanitaria que me atendió, no he parado de preguntar al chat gpt; ¿Por qué la Mutua me manda a trabajar con el dedo roto?¿Por qué se me ha quedado torcido hacia abajo y no va hacia atrás aunque lo fuerce? ¿Por qué la mutua normaliza mi dedo deformado? Y ya el dichoso chat ya sabe que trabajo en una fundición de acero, con maquinaria pesada y así recopila información mía, pero mi dedo quedó mal...