Die KI-Katastrophe

Shownotes

In dieser Folge kippt das Unternehmen kopfüber in ein KI-Projekt, das auf Hype basiert statt auf Substanz. Der CEO fordert eine vollautomatische Kundenservice-KI ohne Datenbasis, ohne Expertise und mit absurd kurzem Zeitplan. Unser internes Team erkennt die Risiken, kann sie aber nicht stoppen...

Transkript anzeigen

00:00:00: Die KI-Katastrophe.

00:00:02: Es begann, wie die meisten IT-Katastrophen beginnen, mit einer brillanten Idee und der festen Überzeugung, dass diesmal alles anders sein würde.

00:00:12: Der CEO hatte auf einer Konferenz einen Vortrag über AI First Customer Experience gehört und war mit leuchtenden Augen zurückgekommen.

00:00:22: Wir brauchen KI.

00:00:24: Er verkündete bei der Montagsbesprechung.

00:00:27: Alle anderen haben KI.

00:00:28: Wir können nicht zurückbleiben.

00:00:30: Ich hätte in diesem Moment aufstehen und gehen sollen.

00:00:34: Ich hätte meinen Lebenslauf aktualisieren und mich nach anderen Jobs umsehen sollen.

00:00:39: Stattdessen nickte ich und sagte

00:00:42: Natürlich.

00:00:43: Welche Art von KI schwebt Ihnen vor?

00:00:46: Eine, die unseren Kundenservice revolutioniert,

00:00:49: antwortete er enthusiastisch.

00:00:52: Stellen Sie sich vor, Kunden stellen Fragen.

00:00:54: Und die KI antwortet sofort mit perfekten, personalisierten Antworten.

00:01:03: Das klingt ambitioniert,

00:01:06: antwortete ich diplomatisch.

00:01:12: Ich habe bereits mit einem KI-Startup gesprochen.

00:01:15: Sie haben eine Lösung, die auf Vector Search und Large Language Models basiert.

00:01:25: Die Buzzwords des Jahres.

00:01:27: Ich spürte, wie sich mein Magen zusammenzog.

00:01:31: Wann soll das implementiert werden?

00:01:32: fragte

00:01:33: ich.

00:01:34: Nächsten Monat.

00:01:35: antwortete er fröhlich.

00:01:37: Das Startup kann uns eine Proof-of-Concept-Lösung in zwei Wochen liefern.

00:01:41: Zwei Wochen.

00:01:43: Für ein KI-System, das unseren gesamten Kundenservice übernehmen sollte.

00:01:49: Ich hatte schon Drucker-Installationen gesehen, die länger gedauert hatten.

00:01:53: Nach der Besprechung versammelte ich mein Team in meinem Büro.

00:01:57: Mira, Kevin, Jonas und Max saßen um meinen Schreibtisch und sahen aus, als hätte ich ihnen gerade mitgeteilt, dass wir alle zu einer Fortbildung nach Sibirien fahren würden.

00:02:09: KI für den Kundenservice?

00:02:11: Wiederholte Mira unglaublich.

00:02:13: Haben wir überhaupt genug Daten für ein Training?

00:02:17: Und wer soll das implementieren?

00:02:18: fragte Kevin.

00:02:20: Wir haben keine KI-Experten.

00:02:22: Das Start-up übernimmt die Implementierung.

00:02:25: Erklärte ich.

00:02:27: Wir müssen nur die Daten bereitstellen und das System integrieren.

00:02:31: Welche Daten?

00:02:32: Fragte Jonas.

00:02:34: Unsere Kundendatenbank?

00:02:35: Unsere Support-Tickets?

00:02:37: Unsere internen Dokumente?

00:02:39: Alle.

00:02:40: Antwortete ich.

00:02:42: Sie brauchen alle verfügbaren Informationen, um das System zu trainieren.

00:02:47: Alle Informationen?

00:02:49: Wiederholte Max nervös.

00:02:51: Auch die Vertraulichen?

00:02:53: Sie werden sicher einen Weg finden, sensible Daten zu filtern",

00:02:57: antwortete ich, obwohl ich selbst nicht daran glaubte.

00:03:01: Am nächsten Tag kam das KI-Start-up zu uns.

00:03:04: Zwei junge Männer in Hoodies und Sneakers, die aussahen, als wären sie direkt aus einem Silicon Valley Film gesprungen.

00:03:12: Der eine hieß Tyler und war AI Evangelist, der andere hieß Brandon und war Machine Learning Engineer.

00:03:20: Beide sprachen so schnell und mit so vielen Fachbegriffen, dass ich Mühe hatte, ihnen zu folgen.

00:03:28: Unser System basiert auf einem proprietären Vektor embedding Algorithmus.

00:03:34: Erklärte Tyler enthusiastisch.

00:03:37: Wir nehmen ihre gesamte Wissensbasis, konvertieren sie in hochdimensionale Vektoren und ermöglichen sementische Suche mit natürlicher Sprachverarbeitung.

00:03:48: Das klingt komplex.

00:03:50: Bemerkte ich.

00:03:52: Komplex im Backend.

00:03:53: Einfach im Frontend.

00:03:55: Widersprach Branden.

00:03:56: Der Benutzer stellt eine Frage.

00:03:58: Unser System findet die relevantesten Informationen und generiert eine natürliche Antwort.

00:04:04: Wie ChatGPT, aber mit ihren Daten.

00:04:07: Und wie stellen Sie sicher, dass keine sensiblen Informationen preisgegeben werden?

00:04:12: Fragte Mira.

00:04:14: Wir haben robuste Filteringmechanismen.

00:04:17: Versicherte Teile.

00:04:18: Das System lernt automatisch.

00:04:21: Was öffentlich und was privat ist.

00:04:24: Automatisch.

00:04:25: Haagte Jonas nach.

00:04:27: Machine Learning.

00:04:28: Erklärte Brandon, als wäre das eine Antwort.

00:04:31: Ich hätte mehr Fragen stellen sollen.

00:04:34: Ich hätte nach Referenzen fragen sollen.

00:04:37: Ich hätte eine Proof-of-Concept-Phase vorschlagen sollen.

00:04:41: Stattdessen nickte ich und sagte,

00:04:43: wann können Sie anfangen?

00:04:45: Sofort.

00:04:46: Antwortete Tyler.

00:04:48: Wir brauchen nur Zugang.

00:04:49: zu ihren Daten.

00:04:51: Die nächsten zwei Wochen waren ein Wirbelsturm der Aktivität.

00:04:56: Tyler und Brandon installierten ihre Software auf unseren Servern, kopierten unsere Datenbanken und begannen mit dem Training ihres KI-Systems.

00:05:06: Sie arbeiteten rund um die Uhr, tranken unglaubliche Mengen an Energydrinks und sprachen in einer Mischung aus Englisch und Programmiercode.

00:05:15: Mein Team war skeptisch.

00:05:17: Haben Sie gesehen, was Sie alles kopiert haben?

00:05:20: Fragte Mira.

00:05:21: Nicht nur die Kundendatenbank, sondern auch unsere internen Wikis, unsere Slack-Nachrichten, unsere E-Mails.

00:05:29: Sie sagten, Sie brauchen alle verfügbaren Informationen.

00:05:32: Verteidigte ich.

00:05:34: Auch die mit unseren AWS-Zugangsdaten?

00:05:36: Fragte Kevin.

00:05:38: Die werden Sie sicher herausfiltern.

00:05:40: Antwortete ich.

00:05:42: Aber ich spürte bereits die ersten Zweifel.

00:05:45: Und wenn nicht?

00:05:46: fragte Jonas.

00:05:48: Dann haben wir ein Problem.

00:05:50: Gab ich zu.

00:05:51: Am Ende der zweiten Woche präsentierten Tyler und Brandon ihr fertiges System.

00:05:57: Es sah beeindruckend aus, eine elegante Web-Oberfläche in die Kunden ihre Fragen eingeben konnten und ein Backend, das angeblich in Millisekunden die perfekte Antwort generierte.

00:06:09: Wollen Sie es testen?

00:06:11: fragte Tyler stolz.

00:06:13: Ich gab eine einfache Frage ein.

00:06:15: Wie kann ich mein Passwort zurücksetzen?

00:06:18: Das System antwortete sofort.

00:06:21: Um ihr Passwort zurückzusetzen, besuchen Sie unsere Passwort Reset-Seite und folgen Sie den Anweisungen.

00:06:27: Sie erhalten eine E-Mail mit einem Reset-Link.

00:06:30: Perfekt,

00:06:31: sagte der Chief Executive Officer, der zur Demonstration gekommen war.

00:06:36: Das ist genau das, was wir brauchen.

00:06:39: Ich probierte eine komplexere Frage.

00:06:42: Warum funktioniert meine E-Mail nicht?

00:06:45: Das System antwortete.

00:06:47: E-Mail-Probleme können verschiedene Ursachen haben.

00:06:50: Überprüfen Sie zunächst Ihre Internetverbindung, dann Ihre E-Mail-Einstellungen.

00:06:55: Wenn das Problem weiterhin besteht, kontaktieren Sie unseren Support.

00:06:59: Brilliant!

00:07:00: strahlte der CEO.

00:07:02: Wann können wir es live schalten?

00:07:05: Sofort!

00:07:05: antwortete Brandon.

00:07:07: Das System ist bereit für den Produktionseinsatz.

00:07:11: Ich hätte mehr Tests vorschlagen sollen.

00:07:14: Ich hätte eine Pilotphase mit begrenzten Benutzern vorschlagen sollen.

00:07:18: Ich hätte auf eine gründliche Sicherheitsüberprüfung bestehen sollen.

00:07:22: Stattdessen nickte ich und sagte,

00:07:25: dann schalten wir es morgen live.

00:07:27: Das war ein Fehler.

00:07:29: Ein großer Fehler.

00:07:31: Der erste Tag lief überraschend gut.

00:07:33: Das KI-System beantwortete die meisten Fragen korrekt und höflich.

00:07:39: Die Kunden schienen zufrieden zu sein.

00:07:41: Der Chief Executive Officer war begeistert.

00:07:44: Sehen Sie?

00:07:45: sagte er triumphierend.

00:07:47: KI ist die Zukunft.

00:07:48: Wir sind jetzt ein AI-First-Unternehmen.

00:07:51: Ich entspannte mich ein wenig.

00:07:54: Vielleicht würde es doch funktionieren.

00:07:57: Vielleicht hatte ich mir umsonst Sorgen gemacht.

00:08:00: Am zweiten Tag bekamen wir die erste Beschwerde.

00:08:04: Ein Kunde hatte nach unseren Geschäftszeiten gefragt und als Antwort eine Liste mit den Telefonnummern aller Mitarbeiter erhalten, inklusive Privatnummern.

00:08:14: Das ist ein kleiner Fehler,

00:08:16: versicherte Tyler.

00:08:18: Wir können das System nachtrainieren.

00:08:20: Am dritten Tag wurde es schlimmer.

00:08:23: Ein Kunde fragte nach unseren Preisen und erhielt als Antwort eine detaillierte Aufschlüsselung unserer internen Kostenstruktur, inklusive Gewinnmargen und Lieferantenpreise.

00:08:35: Das ist problematisch,

00:08:37: gab Brenton zu.

00:08:39: Wir müssen die Datenfilterung verbessern.

00:08:42: Am vierten Tag eskalierte die Situation.

00:08:46: Ein Kunde fragte nach technischen Spezifikationen und erhielt als Antwort unsere kompletten Server-Konfiguration.

00:08:53: Inklusive IP-Adressen, Passwörter und Sicherheitseinstellung.

00:08:58: Das ist ein Sicherheitsrisiko,

00:09:00: stellte Mira fest.

00:09:02: Wir arbeiten an einer Lösung,

00:09:04: versicherte Tyler nervös.

00:09:06: Am fünften Tag passierte das Unvermeidliche.

00:09:09: Ein Kunde stellte eine harmlose Frage über unsere API-Dokumentation und erhielt als Antwort unsere kompletten AWS-Zugangsdaten, inklusive Accesskeys, Secretkeys und Bucketnamen.

00:09:23: Your Vector Search returned our AWS Keys in the Customer FAQ-Response.

00:09:29: Schrieb der Kunde in einer E-Mail an unseren Support.

00:09:33: I thought you should know.

00:09:35: Ich starte auf die E-Mail und spürte, wie sich mein Blutdruck in gefährliche Höhen bewegte.

00:09:41: Unsere AWS Keys.

00:09:43: In einer öffentlichen FAQ-Antwort.

00:09:46: Für jeden sichtbar.

00:09:48: Alle Systeme sofort herunterfahren.

00:09:51: Brüllte ich durch das Büro.

00:09:53: Mira sprang auf und begann Server zu deaktivieren.

00:09:57: Kevin rannte zum Netzwerkswitch.

00:09:59: Jonas öffnete die AWS-Konsole und begann alle Zugangsdaten zu ändern.

00:10:05: Max stand nur da und sah aus, als würde er gleich in Ohnmacht fallen.

00:10:10: Was ist passiert?

00:10:11: fragte der CEO, der durch den Lärm angelockt worden war.

00:10:15: Die KI hat unsere AWS Zugangsdaten an Kunden weitergegeben,

00:10:20: erklärte ich, während ich fieberhaft versuchte, das Ausmaß des Schadens zu bewerten.

00:10:26: Das ist... schlecht?

00:10:28: fragte er.

00:10:30: Das ist katastrophal,

00:10:32: antwortete ich.

00:10:33: Jeder, der diese Daten hat, kann auf unsere gesamte Cloud-Infrastruktur zugreifen.

00:10:38: Server starten, Daten löschen, Kosten verursachen.

00:10:43: Der CEO wurde blass.

00:10:45: Wie konnte das passieren?

00:10:48: Ich drehte mich zu Tyler und Brandon um.

00:10:50: Die beide aussahen, als würden sie am liebsten im Boden versinken.

00:10:55: Ihr habt gesagt, ihr hättet robuste Filtering-Mechanismen.

00:10:59: sagte ich mit einer Stimme, die so kalt war, dass sie Wasser gefrieren lassen könnte.

00:11:05: Das haben wir auch.

00:11:06: Stammelte Tyler.

00:11:08: Aber das System hat die AWS Keys wahrscheinlich als technische Dokumentation klassifiziert.

00:11:17: Technische Dokumentation, die öffentlich zugänglich sein sollte?

00:11:21: Fragte Mira Scharf.

00:11:23: Das war ein Trainingsfehler.

00:11:25: Gab Brandon zu.

00:11:27: Das System hat nicht gelernt zwischen öffentlicher und privater technischer Dokumentation zu unterscheiden.

00:11:34: Und warum habt ihr das nicht getestet?

00:11:36: fragte Jonas.

00:11:38: Wir haben getestet.

00:11:39: Verteidigte sich Tyler.

00:11:41: Aber nicht mit echten, sensiblen Daten.

00:11:45: Ihr habt mit Dummy-Daten getestet.

00:11:47: Fragte ich unglaublich.

00:11:49: Das ist Standardpraxis.

00:11:51: antwortete Brenton.

00:11:53: Man testet nie mit echten Produktionsdaten.

00:11:56: Aber ihr habt das System mit echten Produktionsdaten trainiert.

00:12:01: stellte Mira fest.

00:12:02: Das ist ein Widerspruch.

00:12:05: gab Tyler zu.

00:12:07: Die nächsten sechs Stunden waren die Hölle.

00:12:10: Wir änderten alle Passwörter, rotierten alle API-Kies, überprüften alle Logs und beteten, dass niemand unsere Systeme kompromittiert hatte.

00:12:20: Glücklicherweise war der Kunde, der die AWS-Kies erhalten hatte, ehrlich genug gewesen, uns zu informieren, anstatt sie zu missbrauchen.

00:12:29: Aber das war nur der Anfang unserer Probleme.

00:12:32: Als wir die Logs des KI-Systems durchging, entdeckten wir eine ganze Reihe von anderen Fehlern.

00:12:39: Das System hatte einem Kunden die Privatadresse unseres CEOs gegeben, als er nach unserem Firmensitz gefragt hatte.

00:12:47: Es hatte einem anderen Kunden unsere internen Slack-Nachrichten über einen schwierigen Kunden gezeigt, als er nach unserem Beschwerdemanagement gefragt hatte.

00:12:57: Es hatte einem dritten Kunden die Gehaltsliste aller Mitarbeiter präsentiert, als er nach unserer Organisationsstruktur gefragt hatte.

00:13:06: Es hatte einem vierten Kunden unsere Backup-Strategien erklärt, inklusive der Standorte unserer Offline-Backups.

00:13:15: Wie viele Kunden haben diese Informationen erhalten?

00:13:18: fragte der CEO mit schwacher Stimme.

00:13:21: Wir sind noch dabei, das herauszufinden,

00:13:23: antwortete ich.

00:13:25: Aber es könnten Hunderte sein.

00:13:28: Hunderte?

00:13:28: Wiederholte er.

00:13:30: Das System war fünf Tage online,

00:13:32: erklärte Jonas.

00:13:34: Wir hatten durchschnittlich zweihundert Anfragen pro Tag, wenn auch nur zehn Prozent davon sensible Informationen erhalten haben.

00:13:42: Das sind einhundert potenzielle Datenschutzverletzungen.

00:13:46: Rechnete Mira vor.

00:13:48: Der CEO setzte sich schwer auf einen Stuhl.

00:13:52: Was machen wir jetzt?

00:13:53: Schadensbegrenzung.

00:13:54: Antwortete ich.

00:13:56: Wir kontaktieren alle betroffenen Kunden, erklären die Situation und bitten sie, die Informationen zu löschen.

00:14:03: Wir melden den Vorfall der Datenschutzbehörde, wir überarbeiten unsere Sicherheitsrichtlinien und wir feuern das KI-Startup.

00:14:12: Können wir das System reparieren?

00:14:14: fragte der CEO hoffnungsvoll.

00:14:17: Das System ist nicht reparierbar,

00:14:19: antwortete ich.

00:14:21: Es ist grundlegend fehlerhaft konzipiert.

00:14:24: Es kann nicht zwischen öffentlichen und privaten Informationen unterscheiden, weil es nie darauf trainiert wurde.

00:14:31: Aber Tyler und Brandon sagten,

00:14:33: Tyler und Brandon haben gelogen.

00:14:35: Unterbrach ich.

00:14:37: Oder sie waren inkompetent.

00:14:39: Oder beides.

00:14:40: Tyler und Brandon waren bereits verschwunden.

00:14:44: Sie hatten ihre Sachen gepackt und waren gegangen, ohne ein Wort zu sagen.

00:14:49: Ihr Startup antwortete nicht mehr auf unsere Anrufe.

00:14:52: Die nächsten Wochen waren ein Albtraum aus Schadensbegrenzung, Rechtsberatung und Datenschutzkomplex.

00:14:59: Wir mussten jeden einzelnen Kunden kontaktieren, der möglicherweise sensible Informationen erhalten hatte.

00:15:06: Wir mussten der Datenschutzbehörde einen detaillierten Bericht vorlegen.

00:15:10: Wir mussten unsere Sicherheitsrichtlinien komplett überarbeiten.

00:15:15: Die Datenschutzbehörde war nicht amüsiert.

00:15:18: Sie verhängte eine Geldstrafe von fünfzigtausend Euro wegen unzureichender technischer und organisatorischer Maßnahmen zum Schutz personenbezogener Daten.

00:15:28: Die Presse bekam Wind von der Geschichte.

00:15:31: Start-up-KI gibt Firmengeheimnisse preis, titelte eine Zeitung.

00:15:36: AI-Fail.

00:15:38: Wenn künstliche Intelligenz zu ehrlich ist, schrieb eine andere.

00:15:42: Der CEO war am Boden zerstört.

00:15:47: Klagte er.

00:15:48: Ich wollte nur, dass wir mit der Zeit gehen.

00:15:51: Innovation ohne Vorsicht ist Fahrlässigkeit.

00:15:54: Antwortete ich.

00:15:56: Neue Technologie muss gründlich getestet werden, bevor sie produktiv eingesetzt wird.

00:16:02: Aber alle anderen haben KI.

00:16:04: Protestierte er.

00:16:06: Alle anderen haben wahrscheinlich auch Probleme mit KI.

00:16:09: Erwiderte ich.

00:16:10: Sie reden nur nicht darüber.

00:16:12: Drei Monate später hatten wir die meisten Schäden behoben.

00:16:16: Wir hatten ein neues traditionelles FAQ-System implementiert, das von Menschen geschrieben und überprüft wurde.

00:16:24: Wir hatten unsere Sicherheitsrichtlinien verschärft und alle Mitarbeiter in Datenschutz geschult.

00:16:29: Der CEO hatte seine Lektion gelernt.

00:16:32: Keine KI mehr.

00:16:34: Verkündete er bei einer Besprechung.

00:16:36: Zumindest nicht ohne gründliche Prüfung.

00:16:39: KI ist nicht das Problem.

00:16:41: Korrigierte ich.

00:16:43: Das Problem ist die Art, wie wir sie implementiert haben.

00:16:45: Wir haben einem ungetesteten System von einem unbekannten Start-up Zugang zu allen unseren Daten gegeben, ohne angemessene Sicherheitsmaßnahmen.

00:16:56: Was hätten wir anders machen sollen?

00:16:57: fragte er.

00:16:59: Alles.

00:16:59: antwortete Mira Trocken.

00:17:02: Wir hätten mit einem kleinen Pilotprojekt beginnen sollen.

00:17:05: Ich erklärte.

00:17:06: Mit begrenzten Daten, begrenzten Benutzern und umfangreichen Tests.

00:17:12: Wir hätten das System Wochen oder Monate lang testen sollen, bevor wir es produktiv einsetzen.

00:17:18: Wir hätten die Daten vorher bereinigen sollen.

00:17:21: Fügte Jonas hinzu.

00:17:23: Alle sensiblen Informationen entfernen, bevor wir sie dem KI-System geben.

00:17:29: Wir hätten das Start-up gründlicher überprüfen sollen.

00:17:32: Erklärte Kevin

00:17:33: Referenzen Zertifizierungen Sicherheitsstandards.

00:17:37: Wir hätten einen Datenschutzbeauftragten hinzuziehen sollen,

00:17:41: sagte Max.

00:17:43: Wir hätten vorsichtiger sein sollen,

00:17:44: fasste ich zusammen.

00:17:46: Ein Jahr später bekamen wir wieder Besuch von einem KI-Startup.

00:17:51: Diesmal war ich vorbereitet.

00:17:53: Erzählen Sie mir von Ihren Sicherheitsmaßnahmen.

00:17:56: War meine erste Frage.

00:17:59: Welche Zertifizierungen haben Sie?

00:18:01: War meine zweite.

00:18:03: Können Sie uns Referenzen von ähnlichen Implementierungen geben?

00:18:07: War meine Dritte.

00:18:08: Wie stellen Sie sicher, dass keine sensiblen Datenpreis gegeben werden?

00:18:12: War meine Vierte.

00:18:14: Das Start-up hatte gute Antworten auf alle meine Fragen.

00:18:18: Sie hatten ISO, Zertifizierung, zufriedene Kunden und ein ausgereiftes System für Datenschutz und Sicherheit.

00:18:26: Wir begannen mit einem kleinen Pilotprojekt.

00:18:29: Nur ein Bereich.

00:18:30: Nur ausgewählte Daten, nur interne Benutzer.

00:18:34: Wir testeten sechs Monate lang, bevor wir auch nur daran dachten, das System für Kunden zu öffnen.

00:18:40: Diesmal funktionierte es.

00:18:42: Das KI-System war hilfreich, sicher und zuverlässig.

00:18:47: Es gab keine Datenlex, keine Sicherheitsvorfälle, keine Datenschutzverletzungen.

00:18:52: Sehen Sie?

00:18:53: sagte der CEO stolz.

00:18:55: KI funktioniert doch.

00:18:58: KI funktioniert.

00:18:59: Stimm mich zu.

00:19:00: Wenn man es richtig macht.

00:19:02: Die Lektion aus der KI-Katastrophe war einfach.

00:19:06: Neue Technologie ist nicht automatisch besser als alte Technologie.

00:19:11: Sie ist nur anders.

00:19:13: Und anders kann sowohl besser als auch schlechter bedeuten, je nachdem, wie man sie implementiert.

00:19:20: KI kann brillant sein.

00:19:22: Sie kann Probleme lösen, die Menschen nicht lösen können.

00:19:26: Sie kann Muster erkennen, die Menschen nicht sehen.

00:19:29: Sie kann Antworten geben, die Menschen nicht finden.

00:19:32: Aber KI kann auch katastrophal sein.

00:19:35: Sie kann Geheimnisse preisgeben, die Menschen niemals preisgeben würden.

00:19:39: Sie kann Entscheidungen treffen, die Menschen niemals treffen würden.

00:19:43: Sie kann Schäden verursachen, die Menschen niemals verursachen würden.

00:19:47: Der Unterschied liegt in der Implementierung, in der Vorbereitung, in den Tests, in den Sicherheitsmaßnahmen, in der Vorsicht.

00:19:56: Technologie ist ein Werkzeug.

00:19:59: Wie jedes Werkzeug kann sie nützlich oder gefährlich sein, je nachdem wie man sie benutzt.

00:20:04: Ein Hammer kann ein Haus bauen oder einen Finger zerquetschen.

00:20:08: Ein Auto kann einen zur Arbeit bringen oder einen Unfall verursachen.

00:20:13: KI kann Kundenservice verbessern oder Firmengeheimnisse preisgeben.

00:20:18: Die Kunst liegt darin, die Technologie so zu benutzen, dass sie nützlich ist, ohne gefährlich zu werden.

00:20:24: Das erfordert Wissen, Erfahrung und vor allem Vorsicht.

00:20:28: Und manchmal erfordert es auch die Bereitschaft, Nein zu sagen.

00:20:32: Nein zu ungetesteter Technologie.

00:20:35: Nein zu unrealistischen Zeitplänen.

00:20:38: Nein zu Startups, die große Versprechungen machen, aber keine Beweise liefern.

00:20:43: Es ist nicht immer einfach, Nein zu sagen, besonders wenn der CEO begeistert ist und die Konkurrenz scheinbar voraus ist.

00:20:52: Aber manchmal ist Nein die richtige Antwort.

00:20:54: Manchmal ist Nein die einzige Antwort, die zwischen Erfolg und Katastrophe steht.

00:21:01: Und manchmal ist es besser ein Jahr später zu sein, als ein Jahr zu früh.

00:21:06: Besonders wenn zu frühs bedeutet, dass man seine AWS Keys an Kunden verschenkt.

00:21:11: Die KI Revolution wird kommen, aber sie wird nicht über Nacht kommen und sie wird nicht ohne Risiken kommen.

00:21:19: Die Kunst liegt darin, die Vorteile zu nutzen, ohne die Risiken zu ignorieren.

00:21:24: Und wenn jemand behauptet, dass sein KI-System robuste Filteringmechanismen hat, fragen sie nach Beweisen.

00:21:32: Fragen sie nach Tests.

00:21:34: Fragen sie nach Referenzen.

00:21:37: Und wenn sie keine haben, sagen sie Nein.

00:21:40: Ihr zukünftiges Ich wird es Ihnen danken.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.