StrategieVier - Die Agentur f├╝r Webentwicklung, SEO & Businessfotografie

ChatGPT Alternativen (Large Language Model) lokal auf eigenen Rechner ausf├╝hren

Das Bild zeigt einen Screenshot einer Webseite, die sich mit der Entdeckung, dem Herunterladen und der Ausf├╝hrung von lokalen gro├čen Sprachmodellen (LLMs) besch├Ąftigt.

Kurz erkl├Ąrt: Was ist ChatGPT bzw. ein Large Language Model?

Ganz stark vereinfacht ist ChatGPT eine „Person“ mit der man ├╝ber alles m├Âgliche sprechen bzw. eben chatten kann. Nur, dass diese „Person“ eine K├╝nstliche Intelligenz (KI) ist, welche auf einen unfassbar gro├čen Wissensschatz zugreifen kann. ChatGPT ist eigtl. auch nur der Produktname von OpenAI (der Firma, welche hinter diesem Modell steht) und man bezeichnet diese Art von „KI“ als Large Language Model kurz LLMhier mehr dazu.

Das Bild zeigt die Benutzeroberfl├Ąche von ChatGPT mit verschiedenen Dialogoptionen, wie man die k├╝nstliche Intelligenz um Hilfe bitten kann.
Patrick Zeitz - WordPress Berater

Interesse? Dann lass uns ├╝ber die M├Âglichkeiten eines lokalen Large Language Models Sprechen!

Was kann man mit ChatGPT bzw. einem LLM machen?

Vorweg: Es ist schier unm├Âglich hier alle Einsatzm├Âglichkeiten aufzuschl├╝sseln, weil es einfach in jedem Bereich andere Anforderungen oder Programme gibt, die man automatisieren oder sich zuarbeiten lassen k├Ânnte.

Texte oder Artikel schreiben

Grunds├Ątzlich ist ein Large Language Model (LLM) zur Ausgabe von Texten gedacht und nat├╝rlich zum Verstehen „nat├╝rlicher“ Sprache in Form von Texteingaben (Prompts).

Deswegen eignen sich diese hervorragend zum Erstellen von Texten, Artikeln, News oder Produktbeschreibungen. Hier kommt es aber auch sehr stark darauf an, wie gut man promptet, da sonst wirklich nur viel generisches Bla Bla herauskommt. Also immer sch├Ân viel Informationen bzw. Kontext liefern, dann klappt es auch mit den LLM’s ­čÖâ

Texte Zusammenfassen

Sehr praktisch ist auch die F├Ąhigkeit sehr komplexe Texte wie z.B. Research Papers o. Artikel in einfachen Worten zusammenfassen zu lassen.

Texte ├ťbersetzen

Einfach den zu ├╝bersetzenden Text ├╝bergeben (Prompten) und darum bitten diesen in die gew├╝nschte Sprache zu ├╝bersetzen – klappt zumindest bei LLM’s die nicht auf eine bestimmte Sprache trainiert wurden. Sehr m├Ąchtig und nat├╝rlich extrem n├╝tzlich, aber schlecht f├╝r die menschlichen ├ťbersetzer:innen …

Programmieren

Das macht einer:m Anf├Ąnger:in oder auch Senior das Leben wirklich sehr viel leichter.
Es ist fast schon egal, was man wissen m├Âchte, es wird fast alles abgedeckt. Und selbst wenn das LLM diesen speziellen Fall nicht kennt oder l├Âsen kann, dann kann man immer noch die Dokumentation ├╝bergeben und sich so vorarbeiten.

Nun sind aber auch viele Menschen, die noch nie etwas mit Programmieren am Hut hatten in der Lage einfache Anwendungen zu Entwickeln.

Fehler finden

Man kann zum Beispiel einen von sich geschriebenen Text ├╝bergeben und fragen, ob hier Grammatikfehler vorliegen, oder nat├╝rlich auch eine Funktion und nachfragen ob man hier etwas verbessern kann oder ob es evtl. Sicherheitsl├╝cken gibt.

Vorschl├Ąge f├╝r diverse Dinge erhalten

Einfach einen gewissen Kontext (Informationen) ├╝bergeben und dann nachfragen, was das LLM f├╝r Vorschl├Ąge dazu hat. Man k├Ânnte z.B. zu einem Firmennamen Brainstormen ­čĄĚ­čĆ╗ÔÇŹÔÖé´ŞĆ

Firmenname, Unterst├╝tzung zur Namensfindung:

Ich gr├╝nde gerade eine Firma, diese bietet folgende Dienstleistungen an:

  • Lorem Ipsum
  • Lorem dolor sit
  • Lorem ipsum dolor sit amet

Mache mir 30 Vorschl├Ąge wie ich diese Firma nennen k├Ânnte.

Idealerweise gibt man noch mehr Kontext ein, so dass das LLM wirklich richtig damit arbeiten kann.

Das Bild zeigt vier l├Ąchelnde Personen, die auf dem Boden sitzen und verschiedene Posen einnehmen.

ChatGPT richtig verstehen und f├╝r deine Firma nutzen! Das bieten wir dir in unseren Workshops an und nat├╝rlich vieles mehr.

Potentiale erkennen, Large Language Models (LLM’s / ChatGPT) verstehen, Keywords recherchieren, Texte schreiben, Bilder generieren, Programmieren: Wir zeigen dir wie Du dies alles mit ChatGPT bzw. lokalen LLM’s schneller umsetzen kannst!

Tools die ChatGPT’s API nutzen

Es gibt auch einige StartUp’s die komplett auf der ChatGPT API (Schnittstelle) basieren und somit eigene Entwicklungen mit ChatGPT kombinieren und somit noch mehr Mehrwert liefern k├Ânnen. Hier ein paar davon:

MacGPT

Ein richtig praktisches Tool f├╝r den Mac, holt ChatGPT direkt als APP auf den Mac.

AskYourPDF

Hier l├Ądt man ein PDF hoch und kann dann damit chatten!

Perplexity

Eine Suchmaschine, die Antworten auf Suchanfragen gibt. So wie Google das mal gemacht hat und nun immer mehr Unsinn ausspuckt.

AIPRM

Chrome Extension, welche sich direkt in ChatGPT integriert und viele Funktionen hinzuf├╝gt.

Warum ├╝berhaupt eine Alternative zu ChatGPT nutzen?

ChatGPT kann doch alles, was ich brauche, und mit den verf├╝gbaren Tools kann ich ja noch viel mehr machen, warum sollte ich also ├╝berhaupt den „beschwerlichen“ Weg der lokalen LLM’s beschreiten?

Ganz einfach:

Datenschutz! (weitere findest Du unten)

Schon wieder unser aller Lieblingsthema „Datenschutz“?
Ja, zurecht ÔÇ╝´ŞĆ

Alles was man mit ChatGPT oder anderen verf├╝gbaren LLM-Chats teilt, wird mit den dahinterstehenden Firmen geteilt! L├Ądt man also eine Excel-Datei hoch in welcher z.B. die Ums├Ątze der vergangenen Jahre stehen und fragt:

Erstelle mir eine ├ťbersicht, womit wir in den letzten Jahren am meisten Umsatz und Verlust gemacht haben und stelle mir auf dieser Basis einen Businessplan f├╝r das n├Ąchste Jahr zusammen.

Dann sind alle Daten in diesen Modellen gespeichert und im schlimmsten Fall k├Ânnen diese dann irgendwann missbraucht werden. Einige Firmen haben auch direkt eine Anweisung an ihre Mitarbeiter herausgegeben diese LLM-Chats NICHT zu nutzen, da hier Gesch├Ąftsgeheimnisse abflie├čen k├Ânnten.
Denn man muss ja z.B. ChatGPT erst mit den entsprechenden Daten „trainieren“, also ein paar Texte oder PDF’s hochladen aus denen dann wiederum der notwendige Kontext abgeleitet werden kann.

Praktisches Anwendungsszenario f├╝r ein lokales Large Language Model (LLM)!

Stell dir ein hypothetisches Unternehmen vor, das 15 Mitarbeiter:innen in der Produktion und 2 im Support besch├Ąftigt. Der Support muss regelm├Ą├čig bei der Gesch├Ąftsleitung und der Produktion nachfragen, da trotz ihres umfangreichen Wissens und ihrer Expertise nicht alle Bereiche abgedeckt werden k├Ânnen.

Die Auftragslage ist Gut und die Produktion l├Ąuft auf Hochtouren. Daher sind die st├Ąndigen Nachfragen des Supports zwar notwendig, aber oft eine Ablenkung und stressig f├╝r die Mitarbeiter:innen und die Gesch├Ąftsleitung, da sie immer wieder aus ihrer Arbeit herausgerissen werden.

Fr├╝her h├Ątte man vielleicht vorgeschlagen, die h├Ąufigsten Fragen auf der Webseite im FAQ-Bereich zu beantworten – aber wir alle wissen, dass diese Informationen oft ├╝bersehen bzw. einfach ignoriert werdenÔÇŽ

Aber was, wenn es eine M├Âglichkeit g├Ąbe, Kundenanfragen so zu beantworten, dass die Kunden nicht einmal merken, dass sie mit einer KI und nicht mit einem Menschen kommunizieren?

Hier kommt das Large Language Model (LLM) ins Spiel, sei es ChatGPT, Claude2 oder ein eigenes, lokal oder auf einem Server laufendes LLM.

Du kannst ein LLM mit eigenen Daten trainieren, sei es Nutzerfragen, -problemen, -hinweisen oder sogar vollst├Ąndigen Bedienungsanleitungen von selbst entwickelten Ger├Ąten oder Maschinen, die unz├Ąhlige Tipps und Tricks enthalten.

Diese Daten sind oft in den K├Âpfen einzelner Teammitglieder verborgen oder in nicht durchsuchbaren PDFs gespeichert. Wenn jedoch all diese Informationen in einem LLM vorhanden bzw. trainiert sind, das Zusammenh├Ąnge herstellen kann, erh├Ąltst du ein hochspezialisiertes System, das sehr komplexe Anfragen beantworten und gleichzeitig das Team und die Gesch├Ąftsleitung entlasten kann.

Was sind die Vorteile eines lokalen LLM?

Nat├╝rlich in erster Linie der Datenschutz, es gibt aber noch mehr, z.B.:

  • Geschwindigkeit
  • Kontrolle
  • Trainieren mit eigenen Daten
  • Kosten

Was sind die Nachteile eines lokalen LLM?

  • Kosten
  • Nicht mit so vielen Daten wie ChatGPT trainiert
  • Wartung
  • Ressourcenhungrig (RAM, Prozessor, Grafik)

Warum habe ich den Punkt „Kosten“ auf beiden Listen stehen?
Die Verwendung von z.B. ChatGPT oder ChatGPT API verursacht Kosten, aber nat├╝rlich ist die Nutzung eines lokalen LLM’s nicht kostenfrei. Auf Dauer ist es allerdings kosteng├╝nstiger, wenn alles eingerichtet und nat├╝rlich trainiert ist.

├ťberblick

Ich versuche einmal kurz auf alle Punkte der Vor- und Nachteile einzugehen, damit man einen besseren ├ťberblick hat:

Geschwindigkeit

Das ist ein klarer Vorteil, da das lokale LLM nat├╝rlich nicht durch die „Leitung“ gepresst werden muss und immer auf eine Serverantwort warten muss – oder gar im schlimmsten Fall z.B. ChatGPT down ist …

Kontrolle

Man hat die komplette Kontrolle ├╝ber das LLM und kann es sich so einstellen und anpassen wie es eben f├╝r den Anwendungsfall sinnvoll ist.

Trainieren

Durch das Trainieren von eigenen Daten ist das lokale LLM h├Âchst effizient und ist so in der Lage, auch die kompliziertesten Anfragen korrekt und evidenzbasiert zu beantworten.

Gr├Â├če der LLM’s

Anbieter wie OpenAI haben nat├╝rlich andere Ressourcen um Ihre LLM’s zu trainieren und k├Ânnen so eine gr├Â├čere Wissensbasis zur Verf├╝gung stellen. Das bedeutet allerdings nicht, dass die lokalen LLM’s schlechter sind.

Wartung

Immer wenn man etwas selbst unter Kontrolle haben m├Âchte, geht dies nat├╝rlich mit Problemen einher und diese m├╝ssen dann gel├Âst werden – Stichwort Wartung.

Ressourcen

Der Elefant im Raum! Die Ressourcen sind das gr├Â├čte Problem, k├Ânnen zwar relativ einfach gel├Âst werden – verursachen aber nat├╝rlich erst einmal Investitionskosten.

Ich habe aktuell auf meinem Macbook Pro 16″ M1 Pro 16GB von 2021 ein LLM von META (LLAMA 2) laufen, dies basiert auf 13 Billionen Parametern (mehr dazu unten) und dies l├Ąuft schon sehr performant auf dieser Kiste.

Hier noch ein kleiner Exkurs zur Funktion eines LLM und was es mit den Parametern auf sich hat

Gro├če Sprachmodelle (Large Language Models, LLMs) sind maschinelle Lernsysteme, die darauf trainiert sind, menschliche Sprache zu verstehen und zu generieren. Sie basieren auf k├╝nstlichen neuronalen Netzwerken, insbesondere auf einer Art namens Transformer – hier muss ich wirklich auf Wikipedia verweisen, ich wei├č einfach nicht, wie man es besser erl├Ąutern k├Ânnte.

Diese Modelle lernen aus gro├čen Mengen von Textdaten, die sie w├Ąhrend des Trainingsprozesses analysieren.

Die „Parameter“ in diesen Modellen sind im Grunde genommen die Variablen, die das Modell w├Ąhrend des Trainings lernt. Jeder Parameter ist eine Art von „Gewicht„, das angibt, wie stark verschiedene Eingabeinformationen das Ergebnis beeinflussen. Wenn wir also von Modellen mit 7 Billionen, 13 Billionen oder 33 Billionen Parametern sprechen, beziehen wir uns auf die Anzahl der individuellen Gewichte, die das Modell w├Ąhrend des Trainingsprozesses lernt und anpasst.

Je mehr Parameter ein Modell hat, desto mehr „Kapazit├Ąt“ hat es, um Informationen zu lernen und zu speichern. Ein Modell mit mehr Parametern kann in der Regel komplexere Muster und Zusammenh├Ąnge in den Daten erkennen, die es analysiert. Allerdings bedeutet eine gr├Â├čere Anzahl von Parametern auch eine gr├Â├čere Rechenlast und die Gefahr des „Overfitting“, bei dem das Modell zu sehr auf die Trainingsdaten abgestimmt ist und nicht gut auf neue, unbekannte Daten reagiert.

Es ist wichtig zu beachten, dass die Anzahl der Parameter nicht unbedingt die Qualit├Ąt oder N├╝tzlichkeit eines Modells bestimmt. Es geht darum, das richtige Gleichgewicht zwischen Modellgr├Â├če, Rechenleistung, Genauigkeit und Anwendbarkeit zu finden.

WordPress-Entwickler Patrick Zeitz

Arbeitszeit f├╝r sich oder Mitarbeiter:innen freischaufeln mit LLM’s? Ja, das funktioniert und wir zeigen dir wie es funktioniert!

Welche Alternativen zu ChatGPT gibt es lokal?

In den letzten Monaten sind so unfassbar viele LLM’s aufgetaucht die aus den verschiedensten Gr├╝nden entwickelt bzw. trainiert wurden.

Meist basieren diese allerdings auf LLAMA, LLAMA 2, StableLM, Phi-1 und anderen.

Was hei├čt nun aber „basieren“? Nun, man kann wie schon erw├Ąhnt diese LLM’s weiter trainieren und diese so auf andere Dinge spezialisieren z.B. Code! Hier einmal ein paar davon:

CodeLlama

Dieses LLM basiert auf Llama.

WizardCoder

Dieses LLM basiert auf CodeLlama und ist auf Python spezialisiert.

DeepSeekCoder

Dieses LLM basiert ua. auf Llama.

Wie kann ich ein LLM lokal nutzen?

Das ist mittlerweile relativ „einfach“ geworden ­čśČ

Es gibt z.B. App’s:

oder per Kommandozeile installieren und per UI bedienen:

Ausprobiert habe ich Ollama WebUI via Docker und LM Studio auf meinem Macbook Pro M1 Pro 16GB von 2021, wobei Ollama WebUI unfassbar langsam war und LM Studio gleich schnell bzw. schneller als ChatGPT l├Ąuft. Ich wei├č auch, woran es liegt: Apple bietet mit Metal eine Schnittstelle f├╝r grafikintensive Programme an und hier punktet LM Studio, da sie direkt darauf zugreifen. Ollama WebUI sollte das auch k├Ânnen, aber ich habe es nicht geschafft – war aber sicherlich mein Fehler.

Wenn Du also einen Mac mit M1/M2 oder gar M3 hast, dann sollte es ├╝berhaupt kein Problem f├╝r dich sein einmal etwas mit LM Studio oder Faraday herum zu probieren.

Falls Du allerdings mit Windows unterwegs bist, brauchst Du eine potente Grafikkarte mit mind. 6GB VRAM von NVIDIA oder AMD. Da jedes Setup individuell ausf├Ąllt ist es wichtig, hier selbst auszuprobieren was funktioniert und was nicht. Ich bin gar nicht in der Windowswelt unterwegs, probiere und recherchiere hier bitte selbst etwas ­čÖâ

LM Studio ├ťbersicht

F├╝r meine Tests habe ich wie schon geschrieben LM Studio verwendet, welches Du dir hier herunterladen kannst und ganz normal installierst.

Nach dem ersten Start von LM Studio landet man im „Dashboard“ dort bekommt man einen ├ťberblick bzw. ein paar Infos – einfach auf das Bild Klicken, dann wird es gr├Â├čer ­čĽÁ´ŞĆÔÇŹÔÖé´ŞĆ

Mit LM Studio LLM’s lokal nutzen und auch herunterladen

Dieses Programm bzw. App ist krass ­čś│, mich hat am meisten die Geschwindigkeit umgehauen, weil ich vorher Ollama WebUI via Docker laufen hatte und da hatte eine Antwort schonmal 10 Minuten gedauert oder das ganze Ding ist abgesoffen, weil mein Mac komplett am Anschlag lief, weil nur die CPU und nicht die Grafikkarte verwendet wurde.

Man sieht auf dem GIF, in Echtzeit wie schnell eine Antwort ausgegeben wird – f├╝r mich beeindruckend.
Gerade wenn man bedenkt, dass hier alles Lokal auf meinem Mac l├Ąuft!

LLM’s finden

Mit LM Studio geht das ziemlich einfach, da man hier einfach direkt in der App die entsprechenden LLM’s herunterladen kann und zus├Ątzlich wird hier noch angezeigt, ob die eigene Hardware im Stande ist, das LLM auszuf├╝hren – mehr zu meinen getesteten LLM’s unten:

Oder eben nicht ­čśÁÔÇŹ­čĺź

Wenn Du einen Mac verwendest, dann achte darauf, dass METAL aktiviert ist und Klicke auf Reload Model:

Diese LLM’s kann ich zum Ausprobieren empfehlen

Ich habe jetzt schon ein paar ausprobiert und Liste sie dir hier auf, am besten ist es aber, wenn Du dich selbst ausprobierst und schaust, was am besten zu dir passt und auf deiner Hardware auch wirklich l├Ąuft – Stichwort Parameter und Rechenleistung!

LLAMA 2 Chat (Model Card)

Als Chat nutzbar, antwortet recht akkurat auf Anfragen. Halluziniert aber auch schon gerne einmal … so wie man es im Gro├čen und Ganzen gewohnt ist.

Mistral (Model Card)

Auch als Chat nutzbar, gleiches wie bei LLama 2.

Alpaca (Model Card)

Auch als Chat nutzbar, gleiches wie bei LLama 2.

OpenChat (Model Card)

Hier habe ich kaum getestet, probiere es einfach aus ­čśČ

CodeLlama (Model Card)

Richtig gut im Coding!

DeepSeekCoder (Model Card)

Evtl. sogar noch besser im Coding, hier muss ich noch mehr Tests aufsetzen.

Hier findet man noch mehr LLM’s:

Wenn ich mir ein Model w├╝nschen k├Ânnte, dann ein auf WordPress spezialisiertes!
Ich kann dir ebenfalls empfehlen auf YouTube nach „Local LLM“ oder „Best Local LLM“ zu suchen, da verliert man sich dann zwar irgendwann im ber├╝hmten Kaninchenbau ­čÉç, aber ist danach definitiv noch verwirrter ­čśž als vorher – wer traut sich?

GPT4ALL ├ťbersicht

Und dann habe ich noch GPT4ALL ausprobiert, welches Du hier herunterladen und ebenfalls einfach installieren kannst. Hier kann man wohl nicht so viele Modelle herunterladen, wie bei LM Studio, daf├╝r ist es m├Âglich hier Datei-Kollektionen anzulegen und so mit PDF’s bzw. Dokumenten zu chatten!

Mit Dokumenten chatten

Als Dokument habe ich einfach eine Preisliste von o2 hinterlegt und dann nach den Kosten gefragt ­čśů

Wichtig, es muss erst ein PlugIn heruntergeladen werden:
Settings -> LocalDocs -> SBert -> Collection Name -> Path -> Add
=> Im Chat auf das Symbol neben den Einstellungen klicken und die Kollektion ausw├Ąhlen und einfach nachfragen!

So k├Ânnte man z.B. f├╝r seine Kunden oder sich selbst einzelne Ordner (Datei-Kollektionen) anlegen und so ganz einfach an alle notwendigen Informationen gelangen! Oder wenn man z.B. ein Buch oder eine Dokumentation hat und daraus Informationen braucht, k├Ânnte man einfach danach fragen!?

Sicherlich praktisch für Recherchen o.Ä.

Ressourcen

Da ich einiges an Material gesammelt habe findest Du hier einmal ein paar Links zu Beitr├Ągen oder Video’s, welche ich mir angesehen habe und f├╝r erw├Ąhnenswert erachte:

Beitr├Ąge

Videos

Fazit und Gedanken

Manchmal frage ich mich, wie ich auf diese Themen komme, aber hier liegt es ganz klar an Stable Diffusion – hier liest Du mehr dar├╝ber.

Dadurch habe ich erst gemerkt welche M├Âglichkeiten sich daraus ergeben k├Ânnten:

Wir k├Ânnten z.B. f├╝r einen Kunden sein komplett eigenes LLM trainieren und so dazu beitragen die Arbeitszeit der Mitarbeiter:innen signifikant freizuschaufeln, so dass diese mehr Zeit f├╝r die wichtigen Dinge haben. Das w├╝rde nat├╝rlich auch zu mehr Umsatz und Mitarbeiterzufriedenheit beitragen.

Man stelle sich nur vor, wie eine 4.000 Seiten starke Dokumentation von einem Kunden durchforstet werden muss, um dann herauszufinden, dass die gesuchte Information da gar nicht vorzufinden ist, weil sie sich in Anlage 2b im Absatz 35 befindet und dieser dann wiederum auf Anlage 3 verweist – wunderbar … ­čśů ­čĄĚ­čĆ╗ÔÇŹÔÖé´ŞĆ

Abgesehen davon, wie schlecht das PDF o.├Ą durchsuchbar sind und manche PC’s oder Mac’s einfach den Dienst quittieren, weil das Dokument einfach zu gro├č ist.

Wenn man aber nun ein LLM lokal mit allen n├Âtigen Informationen sowie Problemen und deren L├Âsungen f├╝ttert, w├╝rde das LLM Verbindungen zwischen Anfrage und Fehler erkennen k├Ânnen und diese dem Kunden in k├╝rzester Zeit zur Verf├╝gung stellen k├Ânnen.

Das Ganze ist unglaublich faszinierend und wird unser Leben noch mehr beeinflussen als es das letzte Jahr eh schon getan hat.

Auf vielen Webseiten sind seit Jahren ChatBots f├╝r Kundenanfragen implementiert, die waren ja aber wirklich ziemlicher Mist und wirklich nicht hilfreich – das hat sich jetzt aber komplett ge├Ąndert! Auch auf unserer Seite befindet sich unten rechts ein Chat (ChatGPT API) bei dem man nach Infos von unserer Seite fragen kann – funktioniert tats├Ąchlich, einfach einmal ausprobieren. ­čśŐ

Patrick Zeitz

Patrick Zeitz ist S4-Mitgr├╝nder. Als WordPress-Webentwickler sorgt er f├╝r den perfekten Code, der die Websites unserer Kunden auf die Performance-├ťberholspur setzt. Immer im Blick: Der Datenschutz und die Sicherheit.

Eine Person sitzt auf dem Boden und gestikuliert mit den H├Ąnden. Patrick Zeitz

Weitere Beitr├Ąge von uns

Stable Diffusion (SD) ist eine Open-Source-Software f├╝r Deep Learning, die haupts├Ąchlich zur Erstellung detaillierter Bilder aus Textbeschreibungen dient. ...
Als WordPress-Entwickler habe ich KI-Tools wie ChatGPT, Ask Codi, CodeWP, Pinegrow und DeepL fest in meine Arbeitsabl├Ąufe integriert ÔÇô insbesondere f├╝r die Entwicklung des Website-Codes. ­čĺí In diesem Artikel zeige ich dir, f├╝r welche Aufgaben...
Hol dir unser Wissen
in dein Postfach!
Mit unserem Newsletter bekommst du regelm├Ą├čig relevante Updates rund um Websites, SEO, Content, WordPress, KI, Datenschutz und Cyber-Sicherheit.

Du meldest dich mit deiner Anfrage zum Website-Audit auch zu unserem Newsletter an. Wir schicken dir nach unseren Willkommens-E-Mails bis zu vier Mal im Monat unser Website-Wissen! Für den Versand der Mails verwenden wir Active Campaign. Du kannst dich jederzeit mit nur einem Klick wieder abmelden. Datenschutz.