Die KI-Katastrophe
Shownotes
In dieser Folge kippt das Unternehmen kopfüber in ein KI-Projekt, das auf Hype basiert statt auf Substanz. Der CEO fordert eine vollautomatische Kundenservice-KI ohne Datenbasis, ohne Expertise und mit absurd kurzem Zeitplan. Unser internes Team erkennt die Risiken, kann sie aber nicht stoppen...
Transkript anzeigen
00:00:00: Die KI-Katastrophe.
00:00:02: Es begann, wie die meisten IT-Katastrophen beginnen, mit einer brillanten Idee und der festen Überzeugung, dass diesmal alles anders sein würde.
00:00:12: Der CEO hatte auf einer Konferenz einen Vortrag über AI First Customer Experience gehört und war mit leuchtenden Augen zurückgekommen.
00:00:22: Wir brauchen KI.
00:00:24: Er verkündete bei der Montagsbesprechung.
00:00:27: Alle anderen haben KI.
00:00:28: Wir können nicht zurückbleiben.
00:00:30: Ich hätte in diesem Moment aufstehen und gehen sollen.
00:00:34: Ich hätte meinen Lebenslauf aktualisieren und mich nach anderen Jobs umsehen sollen.
00:00:39: Stattdessen nickte ich und sagte
00:00:42: Natürlich.
00:00:43: Welche Art von KI schwebt Ihnen vor?
00:00:46: Eine, die unseren Kundenservice revolutioniert,
00:00:49: antwortete er enthusiastisch.
00:00:52: Stellen Sie sich vor, Kunden stellen Fragen.
00:00:54: Und die KI antwortet sofort mit perfekten, personalisierten Antworten.
00:01:03: Das klingt ambitioniert,
00:01:06: antwortete ich diplomatisch.
00:01:12: Ich habe bereits mit einem KI-Startup gesprochen.
00:01:15: Sie haben eine Lösung, die auf Vector Search und Large Language Models basiert.
00:01:25: Die Buzzwords des Jahres.
00:01:27: Ich spürte, wie sich mein Magen zusammenzog.
00:01:31: Wann soll das implementiert werden?
00:01:32: fragte
00:01:33: ich.
00:01:34: Nächsten Monat.
00:01:35: antwortete er fröhlich.
00:01:37: Das Startup kann uns eine Proof-of-Concept-Lösung in zwei Wochen liefern.
00:01:41: Zwei Wochen.
00:01:43: Für ein KI-System, das unseren gesamten Kundenservice übernehmen sollte.
00:01:49: Ich hatte schon Drucker-Installationen gesehen, die länger gedauert hatten.
00:01:53: Nach der Besprechung versammelte ich mein Team in meinem Büro.
00:01:57: Mira, Kevin, Jonas und Max saßen um meinen Schreibtisch und sahen aus, als hätte ich ihnen gerade mitgeteilt, dass wir alle zu einer Fortbildung nach Sibirien fahren würden.
00:02:09: KI für den Kundenservice?
00:02:11: Wiederholte Mira unglaublich.
00:02:13: Haben wir überhaupt genug Daten für ein Training?
00:02:17: Und wer soll das implementieren?
00:02:18: fragte Kevin.
00:02:20: Wir haben keine KI-Experten.
00:02:22: Das Start-up übernimmt die Implementierung.
00:02:25: Erklärte ich.
00:02:27: Wir müssen nur die Daten bereitstellen und das System integrieren.
00:02:31: Welche Daten?
00:02:32: Fragte Jonas.
00:02:34: Unsere Kundendatenbank?
00:02:35: Unsere Support-Tickets?
00:02:37: Unsere internen Dokumente?
00:02:39: Alle.
00:02:40: Antwortete ich.
00:02:42: Sie brauchen alle verfügbaren Informationen, um das System zu trainieren.
00:02:47: Alle Informationen?
00:02:49: Wiederholte Max nervös.
00:02:51: Auch die Vertraulichen?
00:02:53: Sie werden sicher einen Weg finden, sensible Daten zu filtern",
00:02:57: antwortete ich, obwohl ich selbst nicht daran glaubte.
00:03:01: Am nächsten Tag kam das KI-Start-up zu uns.
00:03:04: Zwei junge Männer in Hoodies und Sneakers, die aussahen, als wären sie direkt aus einem Silicon Valley Film gesprungen.
00:03:12: Der eine hieß Tyler und war AI Evangelist, der andere hieß Brandon und war Machine Learning Engineer.
00:03:20: Beide sprachen so schnell und mit so vielen Fachbegriffen, dass ich Mühe hatte, ihnen zu folgen.
00:03:28: Unser System basiert auf einem proprietären Vektor embedding Algorithmus.
00:03:34: Erklärte Tyler enthusiastisch.
00:03:37: Wir nehmen ihre gesamte Wissensbasis, konvertieren sie in hochdimensionale Vektoren und ermöglichen sementische Suche mit natürlicher Sprachverarbeitung.
00:03:48: Das klingt komplex.
00:03:50: Bemerkte ich.
00:03:52: Komplex im Backend.
00:03:53: Einfach im Frontend.
00:03:55: Widersprach Branden.
00:03:56: Der Benutzer stellt eine Frage.
00:03:58: Unser System findet die relevantesten Informationen und generiert eine natürliche Antwort.
00:04:04: Wie ChatGPT, aber mit ihren Daten.
00:04:07: Und wie stellen Sie sicher, dass keine sensiblen Informationen preisgegeben werden?
00:04:12: Fragte Mira.
00:04:14: Wir haben robuste Filteringmechanismen.
00:04:17: Versicherte Teile.
00:04:18: Das System lernt automatisch.
00:04:21: Was öffentlich und was privat ist.
00:04:24: Automatisch.
00:04:25: Haagte Jonas nach.
00:04:27: Machine Learning.
00:04:28: Erklärte Brandon, als wäre das eine Antwort.
00:04:31: Ich hätte mehr Fragen stellen sollen.
00:04:34: Ich hätte nach Referenzen fragen sollen.
00:04:37: Ich hätte eine Proof-of-Concept-Phase vorschlagen sollen.
00:04:41: Stattdessen nickte ich und sagte,
00:04:43: wann können Sie anfangen?
00:04:45: Sofort.
00:04:46: Antwortete Tyler.
00:04:48: Wir brauchen nur Zugang.
00:04:49: zu ihren Daten.
00:04:51: Die nächsten zwei Wochen waren ein Wirbelsturm der Aktivität.
00:04:56: Tyler und Brandon installierten ihre Software auf unseren Servern, kopierten unsere Datenbanken und begannen mit dem Training ihres KI-Systems.
00:05:06: Sie arbeiteten rund um die Uhr, tranken unglaubliche Mengen an Energydrinks und sprachen in einer Mischung aus Englisch und Programmiercode.
00:05:15: Mein Team war skeptisch.
00:05:17: Haben Sie gesehen, was Sie alles kopiert haben?
00:05:20: Fragte Mira.
00:05:21: Nicht nur die Kundendatenbank, sondern auch unsere internen Wikis, unsere Slack-Nachrichten, unsere E-Mails.
00:05:29: Sie sagten, Sie brauchen alle verfügbaren Informationen.
00:05:32: Verteidigte ich.
00:05:34: Auch die mit unseren AWS-Zugangsdaten?
00:05:36: Fragte Kevin.
00:05:38: Die werden Sie sicher herausfiltern.
00:05:40: Antwortete ich.
00:05:42: Aber ich spürte bereits die ersten Zweifel.
00:05:45: Und wenn nicht?
00:05:46: fragte Jonas.
00:05:48: Dann haben wir ein Problem.
00:05:50: Gab ich zu.
00:05:51: Am Ende der zweiten Woche präsentierten Tyler und Brandon ihr fertiges System.
00:05:57: Es sah beeindruckend aus, eine elegante Web-Oberfläche in die Kunden ihre Fragen eingeben konnten und ein Backend, das angeblich in Millisekunden die perfekte Antwort generierte.
00:06:09: Wollen Sie es testen?
00:06:11: fragte Tyler stolz.
00:06:13: Ich gab eine einfache Frage ein.
00:06:15: Wie kann ich mein Passwort zurücksetzen?
00:06:18: Das System antwortete sofort.
00:06:21: Um ihr Passwort zurückzusetzen, besuchen Sie unsere Passwort Reset-Seite und folgen Sie den Anweisungen.
00:06:27: Sie erhalten eine E-Mail mit einem Reset-Link.
00:06:30: Perfekt,
00:06:31: sagte der Chief Executive Officer, der zur Demonstration gekommen war.
00:06:36: Das ist genau das, was wir brauchen.
00:06:39: Ich probierte eine komplexere Frage.
00:06:42: Warum funktioniert meine E-Mail nicht?
00:06:45: Das System antwortete.
00:06:47: E-Mail-Probleme können verschiedene Ursachen haben.
00:06:50: Überprüfen Sie zunächst Ihre Internetverbindung, dann Ihre E-Mail-Einstellungen.
00:06:55: Wenn das Problem weiterhin besteht, kontaktieren Sie unseren Support.
00:06:59: Brilliant!
00:07:00: strahlte der CEO.
00:07:02: Wann können wir es live schalten?
00:07:05: Sofort!
00:07:05: antwortete Brandon.
00:07:07: Das System ist bereit für den Produktionseinsatz.
00:07:11: Ich hätte mehr Tests vorschlagen sollen.
00:07:14: Ich hätte eine Pilotphase mit begrenzten Benutzern vorschlagen sollen.
00:07:18: Ich hätte auf eine gründliche Sicherheitsüberprüfung bestehen sollen.
00:07:22: Stattdessen nickte ich und sagte,
00:07:25: dann schalten wir es morgen live.
00:07:27: Das war ein Fehler.
00:07:29: Ein großer Fehler.
00:07:31: Der erste Tag lief überraschend gut.
00:07:33: Das KI-System beantwortete die meisten Fragen korrekt und höflich.
00:07:39: Die Kunden schienen zufrieden zu sein.
00:07:41: Der Chief Executive Officer war begeistert.
00:07:44: Sehen Sie?
00:07:45: sagte er triumphierend.
00:07:47: KI ist die Zukunft.
00:07:48: Wir sind jetzt ein AI-First-Unternehmen.
00:07:51: Ich entspannte mich ein wenig.
00:07:54: Vielleicht würde es doch funktionieren.
00:07:57: Vielleicht hatte ich mir umsonst Sorgen gemacht.
00:08:00: Am zweiten Tag bekamen wir die erste Beschwerde.
00:08:04: Ein Kunde hatte nach unseren Geschäftszeiten gefragt und als Antwort eine Liste mit den Telefonnummern aller Mitarbeiter erhalten, inklusive Privatnummern.
00:08:14: Das ist ein kleiner Fehler,
00:08:16: versicherte Tyler.
00:08:18: Wir können das System nachtrainieren.
00:08:20: Am dritten Tag wurde es schlimmer.
00:08:23: Ein Kunde fragte nach unseren Preisen und erhielt als Antwort eine detaillierte Aufschlüsselung unserer internen Kostenstruktur, inklusive Gewinnmargen und Lieferantenpreise.
00:08:35: Das ist problematisch,
00:08:37: gab Brenton zu.
00:08:39: Wir müssen die Datenfilterung verbessern.
00:08:42: Am vierten Tag eskalierte die Situation.
00:08:46: Ein Kunde fragte nach technischen Spezifikationen und erhielt als Antwort unsere kompletten Server-Konfiguration.
00:08:53: Inklusive IP-Adressen, Passwörter und Sicherheitseinstellung.
00:08:58: Das ist ein Sicherheitsrisiko,
00:09:00: stellte Mira fest.
00:09:02: Wir arbeiten an einer Lösung,
00:09:04: versicherte Tyler nervös.
00:09:06: Am fünften Tag passierte das Unvermeidliche.
00:09:09: Ein Kunde stellte eine harmlose Frage über unsere API-Dokumentation und erhielt als Antwort unsere kompletten AWS-Zugangsdaten, inklusive Accesskeys, Secretkeys und Bucketnamen.
00:09:23: Your Vector Search returned our AWS Keys in the Customer FAQ-Response.
00:09:29: Schrieb der Kunde in einer E-Mail an unseren Support.
00:09:33: I thought you should know.
00:09:35: Ich starte auf die E-Mail und spürte, wie sich mein Blutdruck in gefährliche Höhen bewegte.
00:09:41: Unsere AWS Keys.
00:09:43: In einer öffentlichen FAQ-Antwort.
00:09:46: Für jeden sichtbar.
00:09:48: Alle Systeme sofort herunterfahren.
00:09:51: Brüllte ich durch das Büro.
00:09:53: Mira sprang auf und begann Server zu deaktivieren.
00:09:57: Kevin rannte zum Netzwerkswitch.
00:09:59: Jonas öffnete die AWS-Konsole und begann alle Zugangsdaten zu ändern.
00:10:05: Max stand nur da und sah aus, als würde er gleich in Ohnmacht fallen.
00:10:10: Was ist passiert?
00:10:11: fragte der CEO, der durch den Lärm angelockt worden war.
00:10:15: Die KI hat unsere AWS Zugangsdaten an Kunden weitergegeben,
00:10:20: erklärte ich, während ich fieberhaft versuchte, das Ausmaß des Schadens zu bewerten.
00:10:26: Das ist... schlecht?
00:10:28: fragte er.
00:10:30: Das ist katastrophal,
00:10:32: antwortete ich.
00:10:33: Jeder, der diese Daten hat, kann auf unsere gesamte Cloud-Infrastruktur zugreifen.
00:10:38: Server starten, Daten löschen, Kosten verursachen.
00:10:43: Der CEO wurde blass.
00:10:45: Wie konnte das passieren?
00:10:48: Ich drehte mich zu Tyler und Brandon um.
00:10:50: Die beide aussahen, als würden sie am liebsten im Boden versinken.
00:10:55: Ihr habt gesagt, ihr hättet robuste Filtering-Mechanismen.
00:10:59: sagte ich mit einer Stimme, die so kalt war, dass sie Wasser gefrieren lassen könnte.
00:11:05: Das haben wir auch.
00:11:06: Stammelte Tyler.
00:11:08: Aber das System hat die AWS Keys wahrscheinlich als technische Dokumentation klassifiziert.
00:11:17: Technische Dokumentation, die öffentlich zugänglich sein sollte?
00:11:21: Fragte Mira Scharf.
00:11:23: Das war ein Trainingsfehler.
00:11:25: Gab Brandon zu.
00:11:27: Das System hat nicht gelernt zwischen öffentlicher und privater technischer Dokumentation zu unterscheiden.
00:11:34: Und warum habt ihr das nicht getestet?
00:11:36: fragte Jonas.
00:11:38: Wir haben getestet.
00:11:39: Verteidigte sich Tyler.
00:11:41: Aber nicht mit echten, sensiblen Daten.
00:11:45: Ihr habt mit Dummy-Daten getestet.
00:11:47: Fragte ich unglaublich.
00:11:49: Das ist Standardpraxis.
00:11:51: antwortete Brenton.
00:11:53: Man testet nie mit echten Produktionsdaten.
00:11:56: Aber ihr habt das System mit echten Produktionsdaten trainiert.
00:12:01: stellte Mira fest.
00:12:02: Das ist ein Widerspruch.
00:12:05: gab Tyler zu.
00:12:07: Die nächsten sechs Stunden waren die Hölle.
00:12:10: Wir änderten alle Passwörter, rotierten alle API-Kies, überprüften alle Logs und beteten, dass niemand unsere Systeme kompromittiert hatte.
00:12:20: Glücklicherweise war der Kunde, der die AWS-Kies erhalten hatte, ehrlich genug gewesen, uns zu informieren, anstatt sie zu missbrauchen.
00:12:29: Aber das war nur der Anfang unserer Probleme.
00:12:32: Als wir die Logs des KI-Systems durchging, entdeckten wir eine ganze Reihe von anderen Fehlern.
00:12:39: Das System hatte einem Kunden die Privatadresse unseres CEOs gegeben, als er nach unserem Firmensitz gefragt hatte.
00:12:47: Es hatte einem anderen Kunden unsere internen Slack-Nachrichten über einen schwierigen Kunden gezeigt, als er nach unserem Beschwerdemanagement gefragt hatte.
00:12:57: Es hatte einem dritten Kunden die Gehaltsliste aller Mitarbeiter präsentiert, als er nach unserer Organisationsstruktur gefragt hatte.
00:13:06: Es hatte einem vierten Kunden unsere Backup-Strategien erklärt, inklusive der Standorte unserer Offline-Backups.
00:13:15: Wie viele Kunden haben diese Informationen erhalten?
00:13:18: fragte der CEO mit schwacher Stimme.
00:13:21: Wir sind noch dabei, das herauszufinden,
00:13:23: antwortete ich.
00:13:25: Aber es könnten Hunderte sein.
00:13:28: Hunderte?
00:13:28: Wiederholte er.
00:13:30: Das System war fünf Tage online,
00:13:32: erklärte Jonas.
00:13:34: Wir hatten durchschnittlich zweihundert Anfragen pro Tag, wenn auch nur zehn Prozent davon sensible Informationen erhalten haben.
00:13:42: Das sind einhundert potenzielle Datenschutzverletzungen.
00:13:46: Rechnete Mira vor.
00:13:48: Der CEO setzte sich schwer auf einen Stuhl.
00:13:52: Was machen wir jetzt?
00:13:53: Schadensbegrenzung.
00:13:54: Antwortete ich.
00:13:56: Wir kontaktieren alle betroffenen Kunden, erklären die Situation und bitten sie, die Informationen zu löschen.
00:14:03: Wir melden den Vorfall der Datenschutzbehörde, wir überarbeiten unsere Sicherheitsrichtlinien und wir feuern das KI-Startup.
00:14:12: Können wir das System reparieren?
00:14:14: fragte der CEO hoffnungsvoll.
00:14:17: Das System ist nicht reparierbar,
00:14:19: antwortete ich.
00:14:21: Es ist grundlegend fehlerhaft konzipiert.
00:14:24: Es kann nicht zwischen öffentlichen und privaten Informationen unterscheiden, weil es nie darauf trainiert wurde.
00:14:31: Aber Tyler und Brandon sagten,
00:14:33: Tyler und Brandon haben gelogen.
00:14:35: Unterbrach ich.
00:14:37: Oder sie waren inkompetent.
00:14:39: Oder beides.
00:14:40: Tyler und Brandon waren bereits verschwunden.
00:14:44: Sie hatten ihre Sachen gepackt und waren gegangen, ohne ein Wort zu sagen.
00:14:49: Ihr Startup antwortete nicht mehr auf unsere Anrufe.
00:14:52: Die nächsten Wochen waren ein Albtraum aus Schadensbegrenzung, Rechtsberatung und Datenschutzkomplex.
00:14:59: Wir mussten jeden einzelnen Kunden kontaktieren, der möglicherweise sensible Informationen erhalten hatte.
00:15:06: Wir mussten der Datenschutzbehörde einen detaillierten Bericht vorlegen.
00:15:10: Wir mussten unsere Sicherheitsrichtlinien komplett überarbeiten.
00:15:15: Die Datenschutzbehörde war nicht amüsiert.
00:15:18: Sie verhängte eine Geldstrafe von fünfzigtausend Euro wegen unzureichender technischer und organisatorischer Maßnahmen zum Schutz personenbezogener Daten.
00:15:28: Die Presse bekam Wind von der Geschichte.
00:15:31: Start-up-KI gibt Firmengeheimnisse preis, titelte eine Zeitung.
00:15:36: AI-Fail.
00:15:38: Wenn künstliche Intelligenz zu ehrlich ist, schrieb eine andere.
00:15:42: Der CEO war am Boden zerstört.
00:15:47: Klagte er.
00:15:48: Ich wollte nur, dass wir mit der Zeit gehen.
00:15:51: Innovation ohne Vorsicht ist Fahrlässigkeit.
00:15:54: Antwortete ich.
00:15:56: Neue Technologie muss gründlich getestet werden, bevor sie produktiv eingesetzt wird.
00:16:02: Aber alle anderen haben KI.
00:16:04: Protestierte er.
00:16:06: Alle anderen haben wahrscheinlich auch Probleme mit KI.
00:16:09: Erwiderte ich.
00:16:10: Sie reden nur nicht darüber.
00:16:12: Drei Monate später hatten wir die meisten Schäden behoben.
00:16:16: Wir hatten ein neues traditionelles FAQ-System implementiert, das von Menschen geschrieben und überprüft wurde.
00:16:24: Wir hatten unsere Sicherheitsrichtlinien verschärft und alle Mitarbeiter in Datenschutz geschult.
00:16:29: Der CEO hatte seine Lektion gelernt.
00:16:32: Keine KI mehr.
00:16:34: Verkündete er bei einer Besprechung.
00:16:36: Zumindest nicht ohne gründliche Prüfung.
00:16:39: KI ist nicht das Problem.
00:16:41: Korrigierte ich.
00:16:43: Das Problem ist die Art, wie wir sie implementiert haben.
00:16:45: Wir haben einem ungetesteten System von einem unbekannten Start-up Zugang zu allen unseren Daten gegeben, ohne angemessene Sicherheitsmaßnahmen.
00:16:56: Was hätten wir anders machen sollen?
00:16:57: fragte er.
00:16:59: Alles.
00:16:59: antwortete Mira Trocken.
00:17:02: Wir hätten mit einem kleinen Pilotprojekt beginnen sollen.
00:17:05: Ich erklärte.
00:17:06: Mit begrenzten Daten, begrenzten Benutzern und umfangreichen Tests.
00:17:12: Wir hätten das System Wochen oder Monate lang testen sollen, bevor wir es produktiv einsetzen.
00:17:18: Wir hätten die Daten vorher bereinigen sollen.
00:17:21: Fügte Jonas hinzu.
00:17:23: Alle sensiblen Informationen entfernen, bevor wir sie dem KI-System geben.
00:17:29: Wir hätten das Start-up gründlicher überprüfen sollen.
00:17:32: Erklärte Kevin
00:17:33: Referenzen Zertifizierungen Sicherheitsstandards.
00:17:37: Wir hätten einen Datenschutzbeauftragten hinzuziehen sollen,
00:17:41: sagte Max.
00:17:43: Wir hätten vorsichtiger sein sollen,
00:17:44: fasste ich zusammen.
00:17:46: Ein Jahr später bekamen wir wieder Besuch von einem KI-Startup.
00:17:51: Diesmal war ich vorbereitet.
00:17:53: Erzählen Sie mir von Ihren Sicherheitsmaßnahmen.
00:17:56: War meine erste Frage.
00:17:59: Welche Zertifizierungen haben Sie?
00:18:01: War meine zweite.
00:18:03: Können Sie uns Referenzen von ähnlichen Implementierungen geben?
00:18:07: War meine Dritte.
00:18:08: Wie stellen Sie sicher, dass keine sensiblen Datenpreis gegeben werden?
00:18:12: War meine Vierte.
00:18:14: Das Start-up hatte gute Antworten auf alle meine Fragen.
00:18:18: Sie hatten ISO, Zertifizierung, zufriedene Kunden und ein ausgereiftes System für Datenschutz und Sicherheit.
00:18:26: Wir begannen mit einem kleinen Pilotprojekt.
00:18:29: Nur ein Bereich.
00:18:30: Nur ausgewählte Daten, nur interne Benutzer.
00:18:34: Wir testeten sechs Monate lang, bevor wir auch nur daran dachten, das System für Kunden zu öffnen.
00:18:40: Diesmal funktionierte es.
00:18:42: Das KI-System war hilfreich, sicher und zuverlässig.
00:18:47: Es gab keine Datenlex, keine Sicherheitsvorfälle, keine Datenschutzverletzungen.
00:18:52: Sehen Sie?
00:18:53: sagte der CEO stolz.
00:18:55: KI funktioniert doch.
00:18:58: KI funktioniert.
00:18:59: Stimm mich zu.
00:19:00: Wenn man es richtig macht.
00:19:02: Die Lektion aus der KI-Katastrophe war einfach.
00:19:06: Neue Technologie ist nicht automatisch besser als alte Technologie.
00:19:11: Sie ist nur anders.
00:19:13: Und anders kann sowohl besser als auch schlechter bedeuten, je nachdem, wie man sie implementiert.
00:19:20: KI kann brillant sein.
00:19:22: Sie kann Probleme lösen, die Menschen nicht lösen können.
00:19:26: Sie kann Muster erkennen, die Menschen nicht sehen.
00:19:29: Sie kann Antworten geben, die Menschen nicht finden.
00:19:32: Aber KI kann auch katastrophal sein.
00:19:35: Sie kann Geheimnisse preisgeben, die Menschen niemals preisgeben würden.
00:19:39: Sie kann Entscheidungen treffen, die Menschen niemals treffen würden.
00:19:43: Sie kann Schäden verursachen, die Menschen niemals verursachen würden.
00:19:47: Der Unterschied liegt in der Implementierung, in der Vorbereitung, in den Tests, in den Sicherheitsmaßnahmen, in der Vorsicht.
00:19:56: Technologie ist ein Werkzeug.
00:19:59: Wie jedes Werkzeug kann sie nützlich oder gefährlich sein, je nachdem wie man sie benutzt.
00:20:04: Ein Hammer kann ein Haus bauen oder einen Finger zerquetschen.
00:20:08: Ein Auto kann einen zur Arbeit bringen oder einen Unfall verursachen.
00:20:13: KI kann Kundenservice verbessern oder Firmengeheimnisse preisgeben.
00:20:18: Die Kunst liegt darin, die Technologie so zu benutzen, dass sie nützlich ist, ohne gefährlich zu werden.
00:20:24: Das erfordert Wissen, Erfahrung und vor allem Vorsicht.
00:20:28: Und manchmal erfordert es auch die Bereitschaft, Nein zu sagen.
00:20:32: Nein zu ungetesteter Technologie.
00:20:35: Nein zu unrealistischen Zeitplänen.
00:20:38: Nein zu Startups, die große Versprechungen machen, aber keine Beweise liefern.
00:20:43: Es ist nicht immer einfach, Nein zu sagen, besonders wenn der CEO begeistert ist und die Konkurrenz scheinbar voraus ist.
00:20:52: Aber manchmal ist Nein die richtige Antwort.
00:20:54: Manchmal ist Nein die einzige Antwort, die zwischen Erfolg und Katastrophe steht.
00:21:01: Und manchmal ist es besser ein Jahr später zu sein, als ein Jahr zu früh.
00:21:06: Besonders wenn zu frühs bedeutet, dass man seine AWS Keys an Kunden verschenkt.
00:21:11: Die KI Revolution wird kommen, aber sie wird nicht über Nacht kommen und sie wird nicht ohne Risiken kommen.
00:21:19: Die Kunst liegt darin, die Vorteile zu nutzen, ohne die Risiken zu ignorieren.
00:21:24: Und wenn jemand behauptet, dass sein KI-System robuste Filteringmechanismen hat, fragen sie nach Beweisen.
00:21:32: Fragen sie nach Tests.
00:21:34: Fragen sie nach Referenzen.
00:21:37: Und wenn sie keine haben, sagen sie Nein.
00:21:40: Ihr zukünftiges Ich wird es Ihnen danken.
Neuer Kommentar