Weltgesundheitsorganisation zu ChatGPT, Bard und Co: "Risiken sorgfältig prüfen"
Die Weltgesundheitsorganisation warnt vor dem vorschnellen Einsatz generativer Sprachmodelle in der Medizin. Dieser könne das Vertrauen in KI verspielen.
Die Weltgesundheitsorganisation (WHO) mahnt zur Vorsicht beim Einsatz KI-basierter großer Sprachmodelle, um das Wohlbefinden, die Sicherheit und Autonomie sowie die öffentliche Gesundheit zu schützen. Aktuell entwickeln und verbreiten sich auf großen Sprachmodelle (LLM) basierende Systeme wie ChatGPT, Bard, Bert und viele weitere rasant. Auch in der Medizin erkennt die WHO mögliche Vorteile beim Einsatz derartiger Systeme. Sie empfiehlt jedoch, "die Risiken sorgfältig zu prüfen", bevor LLMs den Zugang zu Gesundheitsinformationen vereinfachen oder "die Diagnosekapazität in unterfinanzierten Umgebungen" erhöhen sollen.
https://www.heise.de/news/Warnung-vor-Dr-KI-WHO-befuerchtet-Fehldiagnosen-durch-ChatGPT-Bard-und-Co-9057914.html
Die Weltgesundheitsorganisation (WHO) mahnt zur Vorsicht beim Einsatz KI-basierter großer Sprachmodelle, um das Wohlbefinden, die Sicherheit und Autonomie sowie die öffentliche Gesundheit zu schützen. Aktuell entwickeln und verbreiten sich auf großen Sprachmodelle (LLM) basierende Systeme wie ChatGPT, Bard, Bert und viele weitere rasant. Auch in der Medizin erkennt die WHO mögliche Vorteile beim Einsatz derartiger Systeme. Sie empfiehlt jedoch, "die Risiken sorgfältig zu prüfen", bevor LLMs den Zugang zu Gesundheitsinformationen vereinfachen oder "die Diagnosekapazität in unterfinanzierten Umgebungen" erhöhen sollen.
https://www.heise.de/news/Warnung-vor-Dr-KI-WHO-befuerchtet-Fehldiagnosen-durch-ChatGPT-Bard-und-Co-9057914.html