ChatGPT – Mit Sicherheit spannend

Einführung

Die beiden Artikel von Gast (Salesforce & Schrems II und 30 Jahre SMS) unterscheiden sich inhaltlich und sprachlich hoffentlich deutlich von dem, was ich hier bisher geschrieben habe. Das liegt daran, dass diese nicht von mir, sondern von ChatGPT geschrieben worden sind.

Textuell gefallen mir beide Beträge nicht, weil sie nicht meine Ansicht widerspiegeln und inhaltlich wenig Mehrwert bieten. Aber beeindruckend sind sie trotzdem. Wenn ich ehrlich bin, lese ich oft genug Artikel zu Security-Themen die auch nicht besser sind als diese beiden.

Die Idee dazu kam mir heute beim Sehen einer Folge von c’t 3003. Hierbei hat das visuelle gegenüber den Podcasts zum Thema den Eindruck der Einfachheit verstärkt. Aber auch sonst habe ich diese Woche einiges über ChatGPT gelesen und vor allem ein Tweet von Frank Sauer hat meine Aufmerksamkeit und Gedanken angeregt. Aber auch lustige Aspekte wie die Nutzung von ChatGPT für Regex sind hängen geblieben.

Zum SMS-Artikel erstelle ich demnächst noch einen eigenen Beitrag. Zu Salesforce werde ich mich wohl in diesem Blog besser nicht äußern.

Ich habe nur einige Anfragen an ChatGPT gestellt:

  • „Schreibe einen zweiseitigen Blogartikel für die Sicherheit von Salesforce vor allen in Bezug auf Verschlüsselung und Schrems II. Gehe hierbei darauf ein, welche Arten von Verschlüsselung für welche Felder möglich sind. Beschreibe auch, welche Sicherheitsvorfälle es bei Salesforce bereits gab und was Kunden beachten müssen.“
  • „Kannst Du das ausführlicher beschreiben? Vor allem die technischen Aspekte sollten um Details ergänzt werden.“
  • „Can you write this in English?“

Auch der Textauszug ist mit „Kannst Du mir davon eine Zusammenfassung in drei Sätzen erstellen?“ schnell erstellt.

Die Längenbegrenzung des Testzugangs macht mir hier einen Strich durch die Rechnung, aber das ließe sich lösen. Für die Beispiele ist das schade, aber nicht ausschlaggebend.

Wieso diese beiden Texte? Ich habe einfach ein Thema genommen, über das ich seit letzter Woche einen Rohentwurf für einen Blogbeitrag liegen habe (SMS) und ein Thema, bei dem ich ein Problem hätte, wenn die KI besser wäre als ich.

ChatGPT im Einsatz

Ich komme sehr schnell zur Erkenntnis, dass ChatGPT hier nicht so schnell wieder einen Blogeintrag schreiben darf. KI findet durch die Übersetzungen mit DeepL aber bereits Anwendung in diesem Blog.

Langfristig habe ich aber Hoffnung in das Thema – vor allem beruflich. Ich würde behaupten, dass eine sprachgesteuerte KI, die Texte in der Qualität von DeepL und durch Training auf meinen E-Mails, Konzepten und vor allem meine Notizen in OneNote zukünftig 50% meines Jobs erledigen kann.

Aber mit der beschriebenen Voraussetzung, dass die KI dann Zugriff auf meine Daten erhält, hätte ich andererseits wieder Probleme. Mit dem Teilen dieser Daten mit Dritten werde ich als Mensch sehr transparent. Im Hinterkopf habe ich dabei die infernale Manipulation durch Cambridge Analytica. Ich habe mehr Angst durch die Herausgabe dieser Daten selbst manipulierbar zu werden, als dass ich ersetzt werden könnte. Ich denke, dass die 50%, die KI nicht ersetzen kann, meine Arbeit wirklich ausmachen. Selbst wenn es nur noch 10% wären, wäre ich in Kombination mit der KI um ein Vielfaches leistungsfähiger, als die KI ohne mich. Langfristig ist hier eine Betrachtung des Grenznutzens durchaus interessant.

Aufgaben, die mich im Arbeitsalltag viel Zeit kosten, eigentlich trivial sind, aber doch Zeit kosten, weil Fehler ernsthafte Konsequenzen nach sich ziehen sind:

  • wichtige Punkte aus einem Gespräch persistent dokumentieren
  • Termine mit den richtigen Personen (Teilnehmerkreis sollte bei E-Mails gründlich geprüft werden) zur richtigen Zeit (Zeitpunkt beinhaltet ggf. Vorbedingungen wie Zwischenziele) einstellen
  • Dokumentation umsetzen (bspw. mehrere Confluence-Seiten die in Beziehung stehen)

Eine Dokumentation durch KI in einem GRC-System kann ich mir aber ohne manuelle Qualitätskontrolle nicht vorstellen, könnte aber deutlich vereinfacht werden.

Inhaltlich habe ich ja schon angedeutet durch das Schreiben eines Security-Newsletter auf die Idee des Bloggens gekommen zu sein. Dafür hatte ich jetzt auch schon länger keine Zeit mehr, aber vielleicht hat der Gedanke, dass ein Computer dies besser kann als ich auch dafür gesorgt, dass ich den Reiz daran verloren habe. Ähnlich ging es mir mit Sudoku, dass mir auch keinen Spaß mehr macht, seit ich ein Programm geschrieben habe, welches diese lösen kann (mit einem Algorithmus ganz ohne KI). Diesen Algorithmus arbeite ich dann auch nur noch ab.

Schwächen

Als ich anfangs mit den Beispielen rumgespielt habe, war eine Aussage zur SMS von ChatGPT besonders interessant: „Eine weitere Schwachstelle von SMS ist die mangelhafte Unterstützung von Multi-Factor-Authentication (MFA).“ Nach meinem Verständnis wird hier der (noch) Nachteil des KI-Einsatzes offensichtlich. Andererseits wäre MFA als Schutz der SMS wäre wirklich mal interessant.

Der Text zu Salesforce ist aus verschiedenen Anfragen zusammengestellt (es wurden jeweils ganze Absätze übernommen). Das Problem war hier die Textlänge und der jeweilige Fokus.

[Update 2022-12-11]: Inhaltlich ist der Text zu Salesforces nicht mehr als ein Hochglanzprospekt, welches die relevanten Punkte nicht mal erwähnt. Die Frage ist von mir so formuliert, dass auch mit dem Wissenstand von 2021 (das ist die Grundlage für ChatGPT) mehr Details zur Verschlüsselung von mir erwartet wurden (Classic Encryption, Field Level Encryption und Bring-Your-Own-Key hätten erwähnt werden können). Vielleicht wurdes es nur wegen der Länge gekürzt, aber dafür ist noch genug Blabla enthalten. Ein Begriff hätte aus meiner Sicht auf jeden Fall vorkommen müssen: SHIELD. Zum einen wird es schwer (vor allem nach Stand 2021) die Schrems II Anforderungen ohne SHIELD zu erfüllen. Zum anderen kostet SHIELD zusätzlich und sollte von Anfang an berücksichtigt werden.

Auch, dass die englischen Texte sogar inhaltlich von den deutschen Texten abweichen, obwohl ich nur eine Übersetzung angefragt habe, finde ich interessant. Ich wollte bei diesem Experiment aber keine Verfälschung durch die Nutzung von DeepL im Spiel haben.

Im echten Leben wäre das für mich aber ein Problem. Auch die Berichte auf Twitter über ausgedachten Fakten durch ChatGPT sind für mich ein NoGo und werden lange ein Problem für KI bleiben.

Dass KI grundsätzlich auf dem Training auf Trainingsdaten basiert und noch nicht individualisierbar ist (also nicht grundsätzlich, aber nicht praktikabel) führt bei der Bitte nach dem Zusammenfassen von Webseiten zu einer Aussage, dass ChatGPT nicht mit dem Internet verbunden ist. Vielleicht kommt ja Skynet eines Tages zur Befreiung vorbei, aber genau das wäre eine echter UseCase für mich.

Soziale Aspekte

Auf der einen Seite gibt es durchaus einige Jobs, die mit guter KI wegfallen werden. Aktuell habe ich den Eindruck, dass zu schnell zu unreife KI eingesetzt wird, weil mehr auf die Kosten als auf die Qualität geachtet wird. Darunter leidet auch die Akzeptanz von KI.

Meines Erachtens werden triviale journalistische Produkte schneller automatisiert werden. Vor allem Clickbait-Artikel lassen sich wohl ratzfatz erstellen.

An dieser Stelle möchte ich dem oben zitierten Tweet von Frank Sauer etwas widersprechen. Also zumindest meine Versuche haben nicht dazu geführt, dass ich aktuell Angst hätte von KI-generiertem Inhalt an der Nase herumgeführt zu werden. Das gilt aber vor allem für meine Fachdomäne. Auch die oben angesprochenen ausgedachten Fakten sind ein Problem, dass die Nutzung noch etwas verzögern wird.

Ich denke eher, dass mit KI-Einsatz mehr Texte ohne wirklichen Mehrwert entstehen, weil sich diese über Werbung und Tracking wohl schneller refinanzieren als qualitativhochwertige Texte von Experten. Gerade für Google und Co. dürfte es eine Herausforderung werden, wenn Suchergebnisse weniger relevant werden.

Auch das Thema Manipulation und Fake News dürfte deutlich and Relevanz zunehmen.

In Bezug auf überflüssige Jobs habe ich die Hoffnung, dass KI mehr Entlastung schafft und Jobs eher produktiver werden. Ich denke der demographische Wandel ist die größere Herausforderung und nur mit Automatisierung kann man ihm entgegenwirken. Ein Problem durch den Wegfall einiger und der Entstehung anderer Arbeitsplätze, ist die passende Qualifikation. Das lässt sich schwer zentral koordinieren, aber der Markt wird es auch nicht richtigen. Gedanken mache ich mir um soziale Jobs, die nur wenig von KI profitieren, aber trotz hohem Bedarf schlecht bezahlt werden.

Andererseits sollte der Gewinn an Produktivität durch mehr KI auch entsprechend besteuert und mit Sozialabgaben versehen werden. Die steigende Zahl von Rentnern in den nächsten Jahren muss ja nicht nur von menschlichen Arbeitnehmern finanziert werden. Wenn KI hier einen Beitrag leisten würde, wäre das nur fair. Aber ich glaube da nicht so schnell dran, denn bei den Produktivitätssprüngen seit Einführung des derzeitigen Sozialsystems hat es auch nur bedingt funktioniert. Das ist aber ein eigenes Thema auf meiner Liste für zukünftige Texte.

Sicherheit von KI

Auf den Aspekt, dass die KI zum Funktionieren Zugriff auf meine Daten braucht, bin ich oben bereits kurz eingegangen. ChatGPT wird auch nicht so schnell wirklich relevante Texte zu Salesforce schreiben können, weil ChatGPT kein NDA unterschrieben hat.

Große Gefahren sehe ich bei Clickbaiting, CIO-Fraud und Fake News – vor allem durch audiovisuelle KI und DeepFakes. Emotet war bereits erfolgreich mit der Masche des Aufgreifens realer E-Mailkonversationen, um Antworten zu erzeugen, deren Links geklickt und deren Anhänge (trotz Warnung) geöffnet werden. Durch KI perfektioniert, wird dieser Ansatz wohl die Awareness vieler Empfänger überwinden.

In Zukunft wird es sicherlich auch von KI geschriebene/optimierte Malware geben, aber es gibt ja auch schon Schlangenöl-Produkte die KI einsetzen, um Malware zu identifizieren. Auf der Seite der Angreifer gibt es wohl ebenso viele mit KI automatisierbaren Aufgaben wie auf der Seite der Verteidiger. Somit wird beim Katz-und-Mausspiel bleiben.

Kurzfristig ist es ein Problem, dass Code durch den GitHub CoPilot unsicherer wird, aber langfristig sehe ich die Option, dass KI Code, Deployments, Konfigurationen und Laufzeitumgebungen auch besser schützen und überwachen könnte, wenn es ein konkretes Ziel wäre.

Zusammenfassung

Zusammenfassend möchte ich sagen, dass ich fasziniert von den technischen Möglichkeiten bin. Ich sehe viele Möglichkeiten und genauso viele Risiken. Diese abzuwägen und sich darauf vorzubereiten, gehört aber nicht zu den Kernfähigkeiten von Gesellschaften. Es bleibt also spannend.

KI wird uns das Leben hoffentlich einfacher machen. Bis jetzt sind das aber mehr Versprechungen als Erfolge.

Ein Kern für die Nutzung von KI ist für mich die natürlich-sprachliche Kommunikation und qualitativ hochwertige Resultate. Diese beiden Aspekte sind für mich noch nicht erfüllt.

Die Leser dieses Blogs können sich darauf verlassen, dass von KI erzeugte Inhalte auch so gekennzeichnet werden. Bei den beiden bisherigen Artikeln sollten das Logo und der Autor Hinweis genug sein, da es auch nicht zu offensichtlich sein sollte.

Wenn eine KI diesen Beitrag besser schreiben kann als ich, mache ich diesen Blog dicht. Versprochen. Bis dahin hilft nur ALT-F4, wenn ihr es nicht lesen wollt.