Forschende nützen nicht nur Large Language Models wie Chat-GPT. Sie tragen die Verantwortung für sämtliche Daten und Auswertungen, die sie mit KI generieren. | Foto: Keystone / Christian Beutler

KI ist zweischneidig: Einerseits erleichtert sie das Fälschen in Publikationen, andererseits ist sie ein nützliches Werkzeug. Deswegen hat eine internationale Fachgruppe im Mai 2024 fünf ethische Prinzipien für deren Anwendung in der Forschung publiziert: ­Erstens muss transparent gemacht ­werden, welche Beiträge von Menschen und welche von Maschinen geleistet wurden. Zweitens liegt die Verantwortung für Korrektheit und Schlussfolgerungen vollumfänglich bei den Forschenden. Drittens sind durch KI ­generierte Daten und Modelle stets so zu annotieren, dass sie nicht mit echten Beobachtungen verwechselt werden können. Viertens sind die Forschenden verpflichtet, möglichen Schaden durch die Technologie zu minimieren, Stichworte sind Datenschutz und Diskriminierung. Zudem müssen die Entwicklungen überwacht und Richt­linien laufend angepasst werden.