Philip Nitschke lleva décadas empujando los límites del debate sobre eutanasia y suicidio asistido. No lo hace desde un laboratorio neutral, sino desde el activismo. Para sus defensores, intenta devolver control a quien sufre. Para sus críticos, reduce una decisión compleja a una salida demasiado fácil y demasiado solitaria.
Sarco, su proyecto más conocido, se presentó como una alternativa “limpia” y sin agujas, diseñada para que la persona tenga la última acción. La controversia se dispara cuando Nitschke propone que la puerta de entrada a ese dispositivo no la decida un profesional sanitario, sino un software. En enero de 2026, medios europeos citaron su postura con claridad: la IA debería decidir quién puede morir, sustituyendo entrevistas con psiquiatras por una evaluación automatizada.
En un tema donde el lenguaje importa, esa sustitución no es un detalle. Cambia el “quién valida” y cambia el “qué se considera válido”. Y reabre una discusión global que muchos países aún no han resuelto: qué significa elegir libremente, y cómo se demuestra cuando hay dolor, miedo, depresión o presión familiar.
De médico a activista del “derecho a morir”: el camino que lo puso en el centro del debate
Nitschke saltó a la escena internacional en los años 90, cuando participó en uno de los primeros casos de eutanasia legal bajo una ley vigente en el Territorio del Norte de Australia. Aquello duró poco, la norma fue anulada después, y el episodio se convirtió en símbolo: para unos, un avance; para otros, una alarma.
Tras ese giro político y legal, Nitschke tomó un rumbo más militante. Fundó Exit International, una organización centrada en el derecho a morir y en difundir información sobre muerte asistida. Ese enfoque lo colocó de forma permanente en la controversia: defensores de la autonomía lo ven como alguien que desafía tabúes, mientras que parte del ámbito médico y de salud mental lo acusa de simplificar situaciones donde la ambivalencia y el sufrimiento pueden ser tratables.
Con el tiempo, su activismo se mezcló con tecnología. Primero fueron sistemas informáticos que “guiaban” decisiones, y luego llegó Sarco como un producto con estética futurista, diseñado para salir del hospital y entrar en un terreno más privado.
Qué es Sarco y cómo funciona con nitrógeno, explicado sin tecnicismos
Sarco es una cápsula, difundida como imprimible en 3D, que busca crear un entorno cerrado donde la persona realiza un proceso de confirmación y activa el mecanismo por sí misma. Se ha descrito como una muerte sin fármacos, basada en nitrógeno.
La idea, explicada en términos simples, es que al desplazar el oxígeno del aire, el cuerpo entra en hipoxia y la persona pierde la consciencia con rapidez. Nitschke presenta ese final como “tranquilo”, una especie de quedarse dormido. Quienes lo critican lo ven como una normalización peligrosa de la muerte asistida, porque empaqueta una decisión extrema en un objeto con diseño amable y promesa de control.
En el fondo, Sarco no solo discute el método. Discute el contexto. ¿Debe una decisión así pasar por un entorno clínico, con evaluación, acompañamiento y alternativas, o puede trasladarse a un escenario casi doméstico, donde la tecnología reemplaza parte del filtro humano?
“La IA debe decidir quién muere”: qué propone realmente y por qué preocupa
La frase suena como provocación, pero tiene una propuesta concreta detrás. Según reportes recientes, Nitschke impulsa que Sarco incorpore un sistema de evaluación con un test online guiado por un avatar con inteligencia artificial. Esa IA “juzgaría” si la persona tiene claridad mental suficiente para decidir, y si aprueba, se abriría una ventana de tiempo para usar la cápsula.
El punto clave es este: la IA no sería un apoyo, sino un reemplazo de la evaluación psiquiátrica. Y ahí empiezan las preguntas incómodas. ¿Qué mide una IA cuando mide “capacidad”? ¿Entiende el duelo, el pánico, la manipulación o la desesperanza? En otros ámbitos ya sabemos que los algoritmos pueden ser consistentes, sí, pero también pueden ser consistentemente injustos si aprenden de datos sesgados.
A favor de la idea, algunos dirán que el acceso a psiquiatras es desigual, que hay profesionales con prejuicios, y que muchas decisiones se bloquean por criterios rígidos. En contra, la objeción es casi visceral: delegar una puerta tan definitiva a un sistema que puede fallar y que no “vive” las consecuencias.
Aquí también hay un riesgo menos obvio: si la IA se convierte en árbitro, su veredicto puede ganar aura de verdad absoluta. Como un semáforo que nadie se atreve a cuestionar, aunque esté mal calibrado.
El argumento de Nitschke: más “objetividad” que un psiquiatra, menos puertas cerradas
Nitschke sostiene que la decisión debe pertenecer al individuo, y que la evaluación de capacidad mental debería ser consistente, no dependiente del criterio personal de un profesional. En su lógica, una IA podría aplicar las mismas preguntas y umbrales a todo el mundo, sin “moralizar” el deseo de morir.
También juega el argumento del acceso. Hay personas que viven en lugares donde no hay especialistas disponibles o donde el sistema sanitario es lento. Para ese perfil, una evaluación automatizada suena a puerta abierta.
Un ejemplo hipotético ayuda a entenderlo sin entrar en detalles operativos: una persona mayor con dolor crónico podría responder a un cuestionario guiado por un avatar, que le pregunta por orientación, comprensión de consecuencias y consistencia de su decisión. Si el sistema concluye que entiende lo que hace, lo validaría. Ese “apto” sería la llave.
El problema es que “consistencia” no es lo mismo que “justicia”, y “entender” no siempre significa “estar libre de presión”.
Los riesgos: errores, sesgos, presión social y decisiones irreversibles
Los fallos de IA no son ciencia ficción. Un modelo puede equivocarse por datos incompletos, por lenguaje ambiguo o por señales que no capta. También puede heredar sesgo cultural: interpretar como “racional” un tipo de discurso, y como “inestable” otro, según acentos, nivel educativo o forma de expresar emociones.
En salud mental hay, además, una dificultad grande: detectar lo que no se dice. La coacción rara vez se confiesa en una pantalla. Una persona puede estar bajo presión familiar, económica o por violencia doméstica, y aun así contestar “correcto” en un test.
Aquí encajan dos ideas simples. Un “falso positivo” sería aprobar a alguien que no debería pasar porque está en crisis tratable o bajo presión. Un “falso negativo” sería bloquear a alguien que sí tiene claridad y sufre de forma persistente. Los dos escenarios son graves, pero el primero es irreversible.
Y hay una capa social: si la muerte asistida se vuelve más accesible por tecnología, puede crecer una expectativa silenciosa hacia quienes “son una carga”. Esa presión no necesita palabras para existir.
El caso Suiza y la gran pregunta: quién pone los límites y cómo se protege a los vulnerables
Suiza es un punto caliente en este debate porque permite ciertas formas de suicidio asistido bajo condiciones específicas, y sin exigir necesariamente presencia médica en todos los casos. Ese marco ha atraído iniciativas y también controversias.
Según se ha reportado, Sarco fue utilizado por primera vez en Suiza en 2024 por una mujer estadounidense con problemas de salud. Tras ese caso, la policía suiza incautó el dispositivo y se abrieron investigaciones para aclarar si hubo delitos. Parte de esas pesquisas se han vinculado a posibles infracciones relacionadas con la asistencia, el procedimiento y el encaje del método con normas locales. El mensaje es claro: incluso en un país más permisivo, no todo vale, y menos cuando entra un producto nuevo que cambia la práctica.
Si a ese escenario se le suma una evaluación con IA, la discusión se amplía. Ya no se trata solo de “permitir o prohibir”, sino de definir garantías mínimas y responsabilidades cuando la decisión pasa por un sistema automatizado.
Legal no siempre significa simple: investigaciones, incautaciones y choque con las reglas
La palabra Suiza suele sonar a “es legal”, pero la realidad es más frágil. La legalidad depende de condiciones, de cómo se presta la ayuda, de si hay interés económico indebido y de si el método respeta normas de seguridad.
Por eso, cuando aparece Sarco, aparecen también fricciones: autoridades que piden explicaciones, fiscales que miran el caso con lupa y debates públicos sobre qué se está normalizando. En este contexto, términos como investigación y regulación no son burocracia, son el mecanismo con el que una sociedad intenta proteger a quien está peor, o más solo.
Si entra IA en la evaluación, qué salvaguardas mínimas se suelen pedir
Cuando una IA participa en decisiones sensibles, suele pedirse supervisión humana real, no simbólica. También se reclama transparencia: qué evalúa el sistema, con qué datos se entrenó, cómo se audita y cómo se corrigen errores.
En un tema como la muerte asistida, muchas voces exigen capas de protección: verificación independiente, tiempo para reconsiderar, confirmación de identidad, exploración de alternativas terapéuticas y mecanismos claros para detectar presiones externas. No son “trabas”, son frenos de seguridad, como los de un coche. Nadie los nota cuando funcionan, pero se echan de menos cuando faltan.
Este artículo fue elaborado con el apoyo de una herramienta de inteligencia artificial. Posteriormente, fue objeto de una revisión exhaustiva por parte de un periodista profesional y un redactor jefe, garantizando así su exactitud, su pertinencia y su conformidad con los estándares editoriales.