Wenn die KI mit Daten gefüttert (trainiert) wird, welche zu 60% ein gerade Bogenhaltung propagiert, wird sie das als vorteilhaft erachten.
Ob richtig und warum, interessiert die KI nicht und die allermeisten werden das als gegeben hinnehmen.
Vornehmlich, weil sie es nicht nachprüfen wollen (und irgendwann auch nicht mehr können). In diesem Zusammenhang ist Wissen leider nicht gleich Kompetenz.
KI kann herausragend gut vergleichen, finden, zusammenfassen, Bilder und Texte gestalten, übersetzen, schmeicheln und lügen.
Unser KI-beauftragter in der Firma sagt, dass KI gelegentlich auch mal „halluziniert“.
Korrekt Analysieren und Beraten kann sie nicht, weil sie ggf. eine Begründung / Schlussfolgerung aus einem Datenpool generiert, der nicht mehr überprüft werden kann.
Während Umfang und die augenscheinliche „Präzision“ mit steigender Datenmenge steigt, nimmt auch die Unsicherheit zu.
In unserer Firma wurde der Einsatz von KI im Zusammenhang mit statischen Berechnungen untersagt,
weil sie ihre extreme Rechenschwäche so geschickt verpacken und verstecken konnte, dass selbst unser Prüfingenieur fast drauf reingefallen wäre.
Der ist als Dr.-Ing. und alter Hase einiges gewohnt und wirft dem Tool sogar „Vorsätzliche Täuschung“ vor.
Wenn der mal in Rente geht, kommt die KI damit durch – Prost Mahlzeit...

Ich könnte mir vorstellen, dass KI mal dabei helfen könnte, viele Schussfolgen (Videosequenzen) zu vergleichen, um die Konstanz darzustellen.
Ein Urteil, ob nun z.B. der Ellbogen gerade sein muss oder ob ein gekanteter Bogen grundsätzlich Käse ist, traue ich weder der KI, noch einem Trainer zu.