Schreiben mit KI

7 gute Gründe, warum Menschen jetzt Verantwortung übernehmen müssen.

KI-Texte waren erst witzig. Hey, ChatGPT: Schreib mir ein Sonett über Currywurst im Stil von Goethe.

Dann milde beängstigend: DAS hat eine KI geschrieben? Respekt und Ehre!

Jetzt bringen apokalytische Reiter den atomaren Winter zu uns, und da warten schon die feindliche Alien-Invasion, 10.000 Godzillas & Voldemorts & Saurons und der dritte Weltkrieg:

  • Auf sozialen Medien unterhalten sich KIs mit KIs (ich kann mir nichts Sinnloseres vorstellen – äh, doch:)

  • Auf YouTube trenden Nonsense-Kinderfilmchen, gegen die die Teletubbies safe ins intellektuelle Feuilleton fallen (verstörendes Kauderwelsch, als pädagogisch wertvolle Lerninhalte gekennzeichnet).

  • Bilder von Kindern, die ihre fotorealistischen – ganz sicher ich schwör – selbst gemalten Bilder vom Pferd zeigen, ernten tonnenweise Likes und unterstützende Kommentare auf Facebook (Millionen Deppinnen und Nixblicker halten die stolzen KI-Kinder mit ihren KI-Bildchen für echte Menschen).

  • Unspezifische, charakterlos-nette oder überzogene Marketingtexte werden abgefeiert wie ‘ne Runde Jägermeister in der Dorfdisko.

  • Texter*innen, Grafiker*innen, Journalist*innen, Programmierer*innen danke tschüss – viele Denkjobs übernimmt die KI (weil schneller & billiger).

KI-Content ist der Untergang der Kommunikation. Und des Vertrauens im Online-Raum.

Heißt das, wir sollten KI ablehnen? Aber nein, dann könntest du auch Faxe schicken, Roland Kaiser hören und Schürzen mit dem Waschbrett am Fluss sauber rubbeln.

KI ist ein nützliches Tool für jeden Beruf, bei dem Hirn gefragt ist. Und sie wird uns perspektivisch immer besser unterstützen.

Aber wir müssen dringend über die Rolle der Menschen sprechen, wenn mit KI gearbeitet und getextet wird.

Hier kommen meine 7 Gründe, warum Menschen Verantwortung übernehmen müssen.

1. KI liefert banale Ergebnisse – Lasst uns aufhören, sie zu glorifizieren!

Ich habe neulich bei einem KI-BBQ Marketingtexte gegrillt: ChatGPT hat ganz eindeutig Werbetext-Bulimie. Die Texte waren vollgestopft mit typisch werblichen Formulierungen (nächstes Level, verpasse nicht diese einmalige Chance), schiefen Sprachbildern aus verschiedenen Metapherwelten und einer seltsam heroischen Tonalität.

Das kann man machen. Das ist dann halt Scheiße.

Warum werden diese versetzungsgefährdeten Anfängertexte dann so glorifiziert?

Dafür habe ich drei Erklärungsansätze.

  • Erstens tendieren wir dazu, in blindem deutschem Technikvertrauen alles toll zu finden, was ein Tool ausspuckt. Menschen sind fehlbar, gefühlsgesteuert und inkonsistent. Technologie ist logisch, praktisch und über Zweifel erhaben. Und sie spart uns Mühe!

  • Die zweite Erklärung hat gar nichts mit KI zu tun, sondern mit fehlender Fachkompetenz. Als ich noch Auftragstexte geschrieben habe, ernteten oft Texte, die ich maximal mittelgut fand, den größten Applaus. Weil viele denken, dass Werbung nach Werbung klingen muss (verkaufsstark oder extra seriös oder bemüht lustig oder blumig verschnörkelt).

  • Und dann gibt’s noch das Marketing der KI-Tool-Anbieter mit ihren Monsterbudgets, Case Studies und Untersuchungen, die zeigen, dass KI-Texte besser performen. Es geht um Profit! Diese Unternehmen haben ein Interesse daran, KI mächtig wirken zu lassen. Ich habe mir schon einige Versuche näher angesehen. Entweder sind die menschlichen Vergleichstexte grottig (nicht ALLE Menschen können tolle Werbetexte schreiben; nicht mal ALLE Menschen, die sich Copywriter nennen). Oder es wurden nur Klick-Raten verglichen. Es ist leicht, mit fragwürdigen Versprechen oder einem Neugier-Köder einen Klick zu erpressen – nur schadest du damit deiner Marke. Wenn dein Lieblings-Kundenberater von deiner Hausbank dir schreibt „Du hast 15.397 Euro Dividende“, dann klickst du auch.

ChatGPT klaubt sich was aus den Tonnen mehr oder minder guter Werbetexte im Netz. Viele davon voll manipulativer Verkaufspsychologie – subtil wie ein T-Rex auf der Balz.

Gute Werbetexte schaffen Verbindung! Das kriegst du mit Frankenstein-Texten made by KI nicht hin.

2. KI macht denkbehindert.

In den Nuller-Jahren bin ich mit ADAC-Straßenatlas durch Deutschland und große Teile Europas gefahren. Meist brauchte ich den Klopper nicht mal. Heute finden meine Kinder ohne Google Maps kaum in ihre Zimmer.  

Ohne Navi sind wir aufgeschmissen. Weil wir unseren Orientierungssinn nicht mehr trainieren.

Hier passt das Motto: „Use it or loose it“.

Tragischer wird’s, wenn du das auf KI-Nutzung überträgst.

Vorher hast du deine Denkmaschine angeworfen, wenn du eine Lösung brauchtest, oder einen Text. Du hast recherchiert und gebrainstormt, um dir Optionen zu schaffen – und dann beschlossen, welche die beste ist.

Zwischen Reiz und Reaktion lag die Entscheidungsfreiheit.

Jetzt bekommst du auf jede Frage eine einzige Antwort vorgesetzt. Du wählst nicht mehr zwischen Optionen, sondern lässt die KI für dich entscheiden. Weil es so verdammt einfach ist und viel weniger schmerzhaft als die Zahnrädchen im Kopf anzuwerfen.

Aber was passiert, wenn du die Denkfolter seltener auf dich nimmst? Erst tut es mehr weh, dann schwinden die Muskeln. Werden wir noch Ergebnisse hinterfragen, wenn wir uns daran gewöhnen, KI-Antworten brav zu schlucken und als wahr anzunehmen?

Ich möchte das Denken und das Schreiben nicht aus Bequemlichkeit verlernen. Diese Fähigkeiten machen mich aus. Nur damit kann ich was bewegen und mich mit Menschen verbinden.

Viel lieber hätte ich eine KI, die den Keller aufräumt und die Wäsche faltet. Aber keine, die mir das abnimmt, worüber ich mich definiere: meine Gedanken.

3. Der Halo-Effekt lässt KI heller wirken als sie ist.

Wow, einfach nur wow! KI kann schreiben. Sogar besser als viele Leute, die das nicht zufällig beruflich machen.

Wir sinken mit staunenden Manga-Augen auf die Knie.

Das Problem: Weil die KI so eindrucksvoll gerade Sätze formulieren kann, trauen wir ihr Fähigkeiten zu, die sie gar nicht mitbringt. Genau wie wir schöne Menschen für kompetenter halten, weil wir ihre Überlegenheit im Attraktivsein auch auf alles andere übertragen. (Ich war geschockt, dass der schöne und daher auch sehr kluge Henry Cavill gegen seine Freundin im Schach verliert).

ChatGPT kann schön schreiben, aber nicht wissen, ob die Aussagen im Text wahr sind.

Dir ist das klar: KI berechnet nach Wahrscheinlichkeit im gewählten Kontext, wie der Text weitergeht. Heißt: Was häufig gesagt wurde und im Internet steht, wird wahrscheinlich wiedergekäut.

Aber ist es wahr, nur weil es nachgeplappert wird?

10.000 Fliegen können nicht irren. Leichen müssen lecker schmecken.

So kam es, dass ChatGPT meiner Kollegin und mir im Brustton der Überzeugung einen Text über Bananen-Anbau in Grönland geliefert hat.

Und, dass meine Kollegin eine halbe Stunde recherchiert hat, um rauszufinden, dass eine von Googles KI-Modell Gemini zitierte Studie gar nicht existiert.

Das Schlimme ist: Je besser die KI-Texte sprachlich werden, desto eher schenken wir ihnen auch inhaltlich Glauben. Selbst uns als Copywriter passiert das! Und wir sind überkritisch.

4. Tschüss Diversität, hallo Oberflächlichkeit!

Aus einem Werbespot von Dove: „KI, zeig mir eine schöne Frau!” Wir sehen eine junge, schlanke, weiße, blonde Frau mit aufgespritzten Lippen und aufgeklebten Wimpern. Das typische Insta-Babe.

„KI, zeig mir schöne Frauen wie aus der Dove-Werbung”. Jetzt wird das Bild etwas diverser und die Frauen haben immerhin verschiedene Haar- und Hautfarben und rangieren von skinny bis curvy.

Es gibt einen Grund dafür, warum generative KI so gern mit Standard-Antworten um die Ecke kommt.

Die Wahrscheinlichkeit der angezeigten Ergebnisse richtet sich danach, wie oft eine Info schon vorhanden ist. Das bedeutet: Wir bekommen immer weniger Diversität.

Gleichzeitig kriegen wir mehr Banalitäten serviert, die schon häufig zum besten gegeben wurden.

Die Chance, eine oberflächliche, generische Aussage zu prompten, steigt. Die Chance, tiefes, spezialisiertes Wissen zutage zu fördern, sinkt. Und irgendwann verschwindet es ganz.

Die Ergebnisse sind dann so prickelnd wie kalter Kamillentee.

5. Die Info-Inzest-Spirale. Oder nenn es Shittification.

KI wird dümmer, weil sich die Datenlage verschlechtert. Das Internet füllt sich rasant mit KI-generierten Inhalten. Generative KI schreibt bei sich selbst ab und produziert Müllmengen, neben denen der Plastik-Kontinent im Pazifik wie eine Amöbe ohne Mikroskop aussieht.

Wenn mehr falsche, schlechte Texte zum Training genutzt werden, kommen exponentiell mehr falsche, schlechte Texte raus. Der Anteil der menschgeschriebenen Inhalte stürzt ab bis zum Höllenboden.

Diese wenigen humanen Körnchen aus Weisheit, Erfahrung und echt Erlebtem spielen im Datenpool keine Rolle mehr.

Das sehe ich schon jetzt beim Googeln. Auf den ersten Seiten der Suchergebnisse finde ich KI-SEO-optimierte Shop-Seiten. Inhaltlich so leer wie Wahlslogans und Keksdosen in Kinderhänden.

Und jetzt kommt die schlechte Nachricht: Künftig sollen bei Google KI-Antworten als oberste Suchergebnisse zu sehen sein. Also Antworten, die sich die KI aus bestehenden Texten zusammenstückelt. Aus welchen Quellen die Antworten stammen, lässt sich nicht mehr einfach nachvollziehen.

Für mich macht es schon einen Unterschied, ob die Info vom Bundesministerium für Bildung und Forschung stammt, oder von www(.)wir-sind-schwurbler-und-wählen-afd.de.

Es wird immer schwieriger, an hilfreiche und verifizierbare Infos zu kommen.

Viele Content Creators und Copywriter empfehlen zum Beispiel, Kundenbedürfnisse mit ChatGPT zu recherchieren. Aber woher will ich wissen, dass diese Bedürfnisse auf meine Kundschaft zutreffen?

Was nützt es mir, die KI zu befragen, wenn ich den Ergebnissen immer weniger vertrauen kann? Und ich sowieso oberflächlichen Mist rauskriege?

6. KI killt unsere Kreativität

Alle Welt sagt, dass KI die Kreativität beflügelt.

Ich war auch von dieser Idee begeistert: KI sollte meine kreative Maschine auf Hochtouren bringen, indem sie mir beim Brainstorming hilft und schnell viele erste Ideen produziert.

Diese KI-gepowerte Initialzündung wollte ich als Startpunkt für eigene Konzepte nutzen.

Manchmal hat das für mich funktioniert. Oft nicht.

Ich habe mit Schrecken festgestellt: Meist klebe ich zu dicht an den KI-Vorschlägen und beschränke mich auf den Feinschliff. Ich denke in vorgegebenen Bahnen, statt in der Wildnis meiner Kreativität nach Originellem zu suchen. Statt mir zu überlegen, was ich wirklich sagen will.

Wie soll ich die starken Botschaften finden, die meine Texte überzeugend machen, wenn ich mit ausgelutschten Ideen starte, die viele schon nutzen?

Hand aufs Herz: Wie engagiert denkst du weiter, wenn da schon was Nettes steht, das ganz gefällig klingt? Wie entschlossen suchst du nach der Big Idea, die perfekt für die Marke ist, für die du schreibst? Wie kritisch schaust du auf Formulierungen, wenn du einen auf den ersten Blick fertigen Text rauskriegst?

Wenn du die KI als Ideengeberin nutzen willst, musst du sehr konsequent unabhängig denken, wenn du was Originelles erschaffen willst. Mich lenken Standard-KI-Ideen oft von meinen eigenen strategischen, eigenständigen, mutigen Überlegungen ab.

7. KI kann Menschlichkeit nur simulieren.

Du kannst dir eine KI-Freundin nach deinen pornösesten Wünschen generieren lassen. Medizin-KIs informieren dich einfühlsamer über deine Diagnose als eine echte Ärztin. KI kann dir unfassbar emotionale Marketing-Storys erzählen, die dich zum Weinen und zum Lachen bringen.

Am Ende kann sie nur so tun, als sei sie ein Mensch.

Die Frage ist nicht, was KI kann. Die Frage ist, ob wir das wollen.

Will ich, dass meine Kinder von KI-Lehrkräften unterrichtet werden? Will ich, dass sie ihre Sprache von KIs übernehmen, die Menschen imitieren? Und ihre Art, Gefühle auszudrücken?

Ich habe lange darüber nachgedacht, was mich genau daran stört, dass KI einen auf (besserer) Mensch macht. Sie kann vordergründig genau das richtig gut, was Menschen ausmacht. Sie kann einfühlsam sein, Verständnis zeigen, Emotionen wecken. Wo ist das Problem?

Ich fühle mich verarscht.

KIs sprechen meine Sprache und gaukeln mir vor, dass sie mich verstehen. Tun sie aber nicht.

Schon das Wort „künstliche Intelligenz“ ist eine freche Überhöhung. Eine KI ist keine denkende und fühlende Entität, sondern ein komplexes Rechenmodell. Wenn KI Empathie zeigt, spielt sie mir was vor – wie eine charismatische Soziopathin ohne jedes Mitgefühl, die erfolgreich manipuliert, weil sie sich die angemessenen Reaktionen abgeschaut hat.

Ja, Menschen sind manchmal inkompetent, unfreundlich, grausam, egoistisch und doof. Weil wir so unperfekt sind, ist es eine riesige Aufgabe, miteinander zu interagieren und uns aufeinander einzulassen.

Aber wenn wir diese Verbindung trotz fehlender Vollkommenheit schaffen, ist das wertvoll. Wir haben hart dafür gearbeitet.

Ich möchte mit fehlbaren Leuten kommunizieren, die das Leben als Gesellschaft genauso viel kostet wie mich. Die Schmerz und Freude spüren, die echt mitleiden und mitlachen können. Weil sie verdammt noch mal Gefühle haben.

Ich will dreckige Authentizität und keinen polierten Fake.

Und ich bin damit nicht allein.

Qualität wird wieder wichtig.

Mehr Texte. Schnellere Texte. Billigere Texte.

Hinter dem KI-Müll stehen Menschen, die KI-Texte fürs Marketing einsetzen. Klar, wenn du brutal schnell brutal viel Content raushaust, hast du erstmal einen Sichtbarkeits-Vorteil.

Langfristig wird diese Brutalo-Strategie aber nicht aufgehen – oder nur für die Budget-Riesen.

Wenn es einfach ist, schnell viel zu produzieren, brauchst du immer mehr, um mitzuspielen.

Und was dann? Wer will den ganzen Rotz lesen, der das Internet verstopft? Niemand!

Ich will mit Content zeigen, was eine Marke wirklich ausmacht, Menschen wild und innig begeistern und Verbindung schaffen. Ich will ein Publikum an mein Feuer holen, das meine (Marken-)Werte teilt und meine Botschaften liebt.

Das schaffst du, wenn du mit Persönlichkeit, Menschlichkeit, eigenen Gedanken und echt erlebten Storys einen Kontrapunkt setzt.

KI kann nicht erzählen, was dir passiert ist und was du denkst. Das kannst nur du. DAS ist Qualität. Und die wird wieder hoch im Kurs stehen, wenn es sie fast nirgends mehr gibt.

Gut, wenn du dann zu den wenigen gehörst, die Copywriting beherrschen – und nicht zu denen, die mit ChatGPT das Internet voll müllen.


Du schreibst für deine Marke oder für andere? Komm zu mir ins Dojo und mach deine Texte gefährlich beim Gelbgurt Copywriting!


Wie können wir mit KI arbeiten und dabei kritisch bleiben und die Verantwortung übernehmen?

Sich auf KI beim Schreiben und Denken zu verlassen ist so verlockend. Aber auch so gefährlich wie Hai-Tauchen mit offener Platzwunde: Wir riskieren nicht nur die Verbreitung falscher Informationen und sinkende Qualität, sondern essenzielle menschliche Fähigkeiten schleichend zu verlieren – wie kritisches Denken, Kommunikation und kreativen Ausdruck.

Was können wir tun?

Lasst uns KI liebevoll von hinten umarmen und ihr dabei über die Schulter schauen.

Denn KI ist nur ein tolles Tool in den Händen von Leuten, die ihren Job beherrschen. Damit können auch Nicht-Fachleute viel leichter Artikel und Infomaterial produzieren, die erstmal schlüssig wirken – sagen wir über Impfstoffe und ihre schädliche Wirkung, um ein Beispiel aus dem Schwurbler-Universum zu bringen.

KI ist eben eine Kettensäge: Du kannst damit viel schaffen, aber auch viel kaputtmachen. Und du fühlst dich besser, wenn eine Holzfällerin sie hält als ein Grundschüler.

Lasst uns Verantwortung übernehmen und über den Wert menschlicher Arbeit sprechen – ganz besonders, wenn KI am Schaffensprozess beteiligt ist.

Dafür gibt es das MI-Siegel für Menschliche Intelligenz

Du hast Erfahrung. Du besitzt Urteilskraft. Du lieferst Qualität. Steigere deinen Wert mit dem MI-Siegel, schaffe Vertrauen und positioniere dich für von Menschen geprüfte Qualität – egal, ob du mit oder ohne KI arbeitest.

Next
Next

Die 9 Copywriter-Archetypen