KI bringt Gefahren. Aber es gibt Lösungen. ⬇️
⚠️ Politisch kontrollierte Trainingsdaten
Trainingsdaten werden vor dem Training eines GPT kuratiert. Nach dem Training findet eine Bewertung von Menschen statt. Deshalb spiegelt der Output einer KI immer auch die politische Meinung der beteiligten Menschen, Unternehmen oder sogar Regierungen wider. In China werden neue Modelle sogar aktiv auf ideologische Übereinstimmung vor der Veröffentlichung kontrolliert.
⚠️ Abhängigkeit von wenigen Anbietern
Training und Betrieb großer GPT-Modelle (auch LLM genannt) sind sehr teuer. Gleichzeitig benötigt man die passende Hardware und vorallem sehr viele Daten. Das führt zur Konzentration auf wenige Anbieter. Schalten diese ab, hat man ein Problem.
⚠️ GPT-Halluzinationen
LLM tendieren bei fehlendem „Wissen“ zu sogenannten Halluzinationen. Sie geben also falsche Antworten teilweise sehr überzeugend wider. Nutzer, die sich im Thema nicht auskennen, glauben diese.
⚠️ Künstliche Intelligenz ablehnen
Trotz all dem werden Unternehmen auf dem Markt nicht mehr wettbewerbsfähig sein, wenn sie KI ablehnen. Darauf folgt: Arbeitnehmer, die KI ablehnen finden irgendwann keinen Job mehr.
✅️ Lösungen
👉 Open Source Modelle einsetzen!
👉 Diversifizieren!
👉 KI lernen!
🚀 Bei mir melden – ich unterstütze dabei!