#8 AI Agents vs. Chatbots: Was ist der Unterschied? (mit Jonas Wascheroh)
Shownotes
Takeaways
- AI Agents sind digitale Assistenten, die eigenständig Aufgaben erledigen können.
- Der zentrale Unterschied zwischen AI Agents und Chatbots liegt in der Fähigkeit, Entscheidungen zu treffen.
- AI Agents benötigen Zugriff auf relevante Systeme, um effektiv arbeiten zu können.
- Datenqualität und Integration sind entscheidend für den Erfolg von AI Agents.
- Agent Assist unterstützt menschliche Agenten, während Agentic AI autonom handelt.
- AI Agents können proaktive Kundenansprache und personalisierte Empfehlungen bieten.
- Technologische Fortschritte wie Reasoning verbessern die Antwortqualität von AI Agents.
- Die Einführung von AI Agents sollte schrittweise erfolgen, um Fehler zu minimieren.
- Fehler sind unvermeidlich, sowohl bei Menschen als auch bei AI.
- Die Zukunft des Kundenservice wird durch proaktive und personalisierte AI Agents geprägt sein.
Chapters
00:00 Einführung in AI Agents im Kundenservice 06:17 Unterschied zwischen AI Agents und klassischen Chatbots 09:21 Praktische Anwendungen von AI Agents im E-Commerce 12:03 Integration und Zugriff auf Systeme für AI Agents 15:03 Agent Assist vs. Agentic AI 18:19 Technologische Grundlagen von AI Agents 21:05 Funktionsweise von Large Language Models 24:02 Werkzeuge und Integration für AI Agents 26:24 Unterschiede zwischen Large Language Models 31:51 Reasoning in AI-Agents 34:47 Grenzen von AI-Agents 40:43 Zukunft des Kundenservice mit AI-Agents 47:17 Tipps zur Einführung von AI-Agents
Folgt Jonas auf LinkedIn: https://www.linkedin.com/in/jonas-wascheroh-637152135/
Folgt Maxi auf LinkedIn: https://www.linkedin.com/in/maxbork/
Transkript anzeigen
Max: die KI darf keinen Fehler machen. Menschen sind aber auch nicht perfekt und machen auch viele Fehler. Und da ist ja auch eine Toleranz für Fehler da. Und die sollte, finde ich, auch bei AI da sein. und ich finde man sollte nicht wählen zwischen, ja wenn die AI nicht alles perfekt macht, dann führe ich es halt gar nicht ein. und wenn wir jetzt mal ganz ehrlich sind, das sehen wir auch. Die KI ist schon in vielen Bereichen bereits besser als wir, Und deswegen, finde ich, sollten wir aufhören da irgendwie jetzt schon an dem Punkt, in dem wir sind, irgendwie Perfektion von der KI zu verlangen.
Jonas Wascheroh: ich finde das immer ein guter Vergleich, wenn man versucht, wie würde ein Mensch das Ganze lösen wenn für eine Anfrage die Informationen an zehn verschiedenen Stellen irgendwo liegen und keiner weiß, ist jetzt die richtige Version, was ist aktuell und wie gehört das zusammen. dann hat es die KI ehrlich gesagt auch schwer, den Zusammenhang zu erkennen. ein Large Language Model wird eben beim AI-Agent benutzt, vor allem Texte zu schreiben, das heißt Antworten zu formulieren, aber auch eben ⁓ nachzudenken, also Pläne zu erstellen, sich selbst zu hinterfragen und dann auch finale Entscheidungen treffen zu können. Und diese neue Art von Reasoning Modelle, die denken quasi direkt selber mit. Das heißt, wenn ich eine Anfrage habe, können diese Reasoning Modelle erstmal schauen, okay, was muss ich intern tun, diese Anfrage beantworten zu können und können sich sogar, das ist ganz wichtig, selbst korrigieren. Also die können dann bei der Antwortfindung sich selbst noch mal hinterfragen, passt diese Antwort überhaupt zu der Frage, ich bekommen habe oder kann ich sogar noch mal eine Runde drehen und vielleicht noch mal neu das Ganze bewerten.
Max: Hi und herzlich willkommen zu Service Sells dem Podcast, zeigt, wie dein Kundenservice nicht nur begeistert, sondern auch verkauft. Ich bin Maxi und in diesem Podcast sprechen wir darüber, wie du aus deinem Kundenservice eine echte Umsatzmaschine machst. Heute geht es ein Thema, das gerade richtig Fahrt aufnimmt, AI Agents im Kundenservice. Was genau das eigentlich ist und wie sie sich von klassischen Chatbots unterscheiden und wie du sie auch konkret im E-Commerce einsetzen kannst. Das schauen wir uns heute noch mal ganz genau im Detail an und wer könnte uns dabei besser erklären als unser eigener CTO Jonas. Jonas, schön, dass du da bist.
Jonas Wascheroh: Dank dir Maxi, ich freue mich auf die Folge.
Max: Für alle die dich noch nicht kennen, magst dich einfach mal kurz vorstellen und erzählen was du bei uns bei melibo genau machst und wie du genau zum Thema AI Agents kommst.
Jonas Wascheroh: Ja, gerne. Ich bin einer der Mitgründer bei melibo und bei uns für den gesamten Bereich Produkt und Technologie verantwortlich. Das heißt, von der ersten Idee und dem Konzept bis hin zur finalen Umsetzung im Team bin ich verantwortlich. Wie bin ich zum Thema AI-Agents gekommen? Ich meine, durch die rasante Entwicklung von KI-Modellen, gerade in letzten Jahren, haben sich ganz neue Möglichkeiten ergeben, wie man Vor allem vorher nur schwer zu lösende Probleme und vor allem auch im Kundenservice jetzt lösen kann. Und wir haben bei Melibo eben schon früh genau mit diesen neuen KI Modellen gearbeitet und das aber auch immer nur in so kontrollierten beziehungsweise eingegrenzten Strukturen, worauf ich später auch nochmal drauf eingehen werde. Und AI Agents sind jetzt da auch wieder die nächste Entwicklungsstufe, wiederum genau die Probleme zu lösen, ... die sich durch diese neuen Modelle ergeben haben. Deshalb ist das Thema für uns so wichtig, weiterhin den Kundenservice zu verbessern und vor allem auch unser Produkt stetig zu verbessern.
Max: Also ihr merkt schon, wir haben richtigen Experten hier heute on board. Und Jonas tut jetzt zwar so cool, aber er freut sich eigentlich auch mega, dass er heute im Podcast dabei ist. Hat mich schon seit Wochen damit gelöschert, wann endlich seine Folge dran ist. Deswegen musst du nicht zurückhalten, Jonas. Starten wir mal ganz mit dem Basic quasi an. Also AI Agent, dieses Buzzword liest man im Moment auch wirklich überall auf LinkedIn.
Jonas Wascheroh: Mach ich.
Max: und auf allen anderen sozialen Netzwerken und Artikeln und weiß, weiß ich wo. Aber ich glaube viele haben immer noch nicht so eine klare Vorstellung davon, was ist das überhaupt. Deswegen lass uns einfach mal mit anfangen, was genau ist ein AI Agent denn überhaupt.
Jonas Wascheroh: Ja, ganz einfach gesagt, ein AI Agent ist wie ein digitaler Assistent, der vor allem selbstständig Aufgaben erledigen kann. Das heißt, er denkt mit, er kann Aufgaben planen und aber auch eben Entscheidungen ganz eigenständig treffen. Eben fast wie ein Mensch.
Max: Okay, also ist wirklich quasi eine AI, die wie ein Support Agent ist, mehr oder weniger.
Jonas Wascheroh: Genau, richtig. Der AI-Agent kann den Kontext verstehen, indem er sich befindet. Also das ganze Gespräch zum Beispiel mit dem Kunden oder auch eben auch vergangene Gespräche noch analysieren und kann eben seine Ziele verfolgen, eben das Kundenanliegen zu lösen und daraus die Entscheidung ableiten. Oft sogar über mehrere Systeme, also zum Beispiel EAP-Systeme oder Shop-Systeme hinweg, daraus die Ja, finale Antwort zu generieren.
Max: Jetzt denken sich ja wahrscheinlich super viele, ist das nicht einfach ein besserer Chatbot? Und das ist ja eine Frage, die wir glaube ich auch häufig gestellt bekommen und sich sicher auch viele von unseren HörerInnen fragen. Chatbots gibt es ja wirklich schon sehr lange und die haben sich ja über die Zeit auch immer weiterentwickelt und das sehen wir ja selbst bei uns im Business auch. Vor allem im Kundenservice wurden sie immer als einfache und halt auch erste Anlaufstelle für Kundinnen benutzt. und oft ja auch einfach nur so als bessere oder intelligentere Form eines Kontaktformulars. Quasi so bisschen missbraucht eigentlich auch dafür, weil Chatbots ja eigentlich auch viel mehr können. Aber so richtig was mit Gen.AI hat das ja in den meisten Fällen nichts zu tun. Vielleicht kannst du einfach noch mal drauf eingehen, wo liegt denn jetzt der zentrale Unterschied zwischen einem AI Agent und einem klassischen Chatbot? Ist der AI Agent quasi einfach die nächste Entwicklungsstufe?
Jonas Wascheroh: Ja, das ist ein interessanter Punkt. Es hat sich quasi in der Entwicklung von diesen ganzen KI-Systemen und Bots hat es ja angefangen mit regelbasierten Bots. Also das heißt, wenn dann, dann das bots. Das heißt, kann man sich vorstellen wie so ein klassisches Kontaktformular, wo der Kunde zum Beispiel einfach nur den Kontaktgrund angibt und je nachdem, welchen Kontaktgrund er angibt, wird er zum Beispiel noch mal nach dem Bild bei einer Retour gefragt, bei dem Bestellstatus zum Beispiel nach der Bestellnummer. Und das waren quasi wie so regelbasierte Bots, die wirklich ganz stur Regeln folgen mussten. Dann kamen Entwicklung von künstlicher Intelligenz die nächste Evolutionsstufe, die klassischen KI-Chatbots, die mit Intents und Entities funktioniert haben. die haben schon Absichten erkennen können. Ja, Kundenservice hat zum Beispiel ein KI-Chatbot auf das Thema Bestellstatus trainiert und das vor allem mit vergangenen Anfragen, die zum Thema, also zu dieser Absicht, Bestellstatus passen könnten. Da war aber immer das Problem, man muss halt im Voraus schon wissen, was könnten die Nutzer denn fragen, dann diese Absicht überhaupt trainieren zu können. Das hat sich auch in der Vergangenheit dann zum Riesenproblem entwickelt. Und jetzt die nächste Evolutionsschruffe mit generativer KI löst das Ganze, weil in diesen Modellen selber, in diesen generativen KI Modellen ist schon so viel Wissen drin, dass so ein Modell direkt diese Absicht auch ohne besonderes Training erkennen kann. Also wo ist mein Paket? Kann so ein Modell schon direkt wissen, okay, hier will der User wissen, wo denn sein Paket ist, wohingegen früher Ja, beim Training wirklich darauf achten musste, dass so ein Wording genau trainiert wurde. Und jetzt kommen wir eben zur wirklich nächsten Evolutionsstufe mit den AI Agents, die nutzen diese generative KI zusammen noch mit anderen Werkzeugen, wie zum Beispiel Integration auf die jeweiligen Shop oder ERP Systeme und können jetzt eben eigenständig mit Hilfe von generativer KI die Probleme lösen. und auch gegebenenfalls die Situation neu bewerten, wohingegen bei alten Chatbots, bei KI-Chatbots, gerade bei komplexeren Fällen die Bots einfach abbrechen mussten, können die KI-Agenten, die AI-Agents einfach weiterarbeiten und gegebenenfalls eben nochmal neu nachdenken.
Max: Also ich finde man kann es eigentlich ganz gut zusammenfassen, wenn man sagt, der Chatbot liefert quasi einfach nur die Informationen oder auch Antworten auf Fragen oder eben Informationen mit denen er vorher eben auch ganz klar gefüttert wurde und der AI Agent kann eben auch konkret jetzt Handlungen durchführen. Und da ist es jetzt super interessant da jetzt auch mal ein bisschen praxisnah zu werden. Es ist jetzt bis jetzt noch relativ viel Theorie. Und ich glaube, ist ja auch wirklich das Interessanteste, was Sie alle fragen, wie kann ich das jetzt genau bei mir einsetzen? Und bei uns im Podcast beschäftigen wir uns ja vor allem mit dem Kundenservice im E-Commerce. Und für Chatbots gibt es ja schon ganz viele spannende Use Cases da, also wie die Beantwortung von Standardanfragen im E-Com. Das vor allem häufig Fragen zu Produkten, die Aufnahme einer Anfrage und dann eben auch die Übergabe an einen Menschen, also dieses Human Handover. oder auch zur proaktiven Ansprache von Website-Besuchern. Da gibt es ja so etwas wie, der Chatbot quasi irgendwie ein erweitertes Pop-Up ist, wo er dann wirklich Rabatte anbieten kann oder weiteres, was auch schon proaktiv ist. Aber für den AI-Agent jetzt, was gibt es denn da für konkrete Aufgaben, die der jetzt im Kundenservice, im E-Com, aber auch generell im Kundenservice übernehmen kann?
Jonas Wascheroh: Ja, also generell, das ich erst mal sagen kann der AI Agent auch nur so viel tun und Aufgaben erledigen, wie er denn auch Zugriff auf zum Beispiel die jeweiligen Systeme hat. Also konkret im E-Commerce werden die meisten Daten vor allem im Shop oder ERP System liegen. Das heißt da braucht er eben Zugriff darauf, auch gute Antworten finden zu können. Und dann kann man sich es aber auch vorstellen wie ein digitaler Mitarbeiter. Das heißt, dem sind erstmal keine Grenzen gesetzt und alles, was der Mitarbeiter tun kann, kann auch der AI Agent tun, wenn er eben Zugriff auf die Welting-Systeme Also konkret reden wir hier von klassischen Use-Cases wie zum Beispiel Bestellstatus. Das heißt, ein Nutzer fragt häufig eben, wo bleibt mein Paket, wo steckt mein Paket gerade auf dem Lieferweg. Und da kann der AI Agent mit Zugriff auf das ERP-System und sogar auf Versanddienstleister wie DHL zum Beispiel direkt auf die Suche nach dem Paket gehen. Also der Nutzer gibt dann häufig ja seine Bestellnummer an oder anhand der E-Mail-Adresse kann der AI Agent dann im System nachschauen und sehen, okay, das Paket ist gerade noch auf dem Weg, kommt vielleicht in zwei Tagen und kann dann eben dem Nutzer hier die entsprechende Antwort geben. Dann gibt es aber noch so weitere Fälle, wie zum Beispiel häufig die Lieferadresse zu ändern. Das kann dann auch der Agent direkt übernehmen und die Lieferadresse im System ändern oder eben Retouren entgegennehmen und Anfang zur Retour prüfen lassen oder aber auch im First Level erstmal Support Tickets zu analysieren. und zu priorisieren und gebenfalls an bestimmte Abteilungen oder Mitarbeiter im Kundenservice weiterzuleiten. Und dann eben auch zum Thema Sales und Umsatz kann er aber eben auch den Kunden durch Upselling-Angebote neue Produkte zum Beispiel vorschlagen oder den Kunden auch beraten.
Max: Also was ich jetzt auch schon so bisschen raushöre, also es ist auf jeden Fall wichtig, dass der AI-Agent eben auch Zugriff auf diese ganzen Systeme hat, wie Shop-System, ERP, damit er auch wirklich da weiterhelfen kann, oder?
Jonas Wascheroh: Genau richtig. kann man sich vorstellen wie ein Mitarbeiter, der jetzt gerade eingestellt wird. Wenn du den hinsetzt und kein Login zum jeweiligen System gibst, dann kann der Mitarbeiter natürlich auch keine Anfragen beantworten, beziehungsweise dann auch wahrscheinlich nur Basisfragen, also FAQ-Wissen beantworten oder nur ganz einfache Fragen beantworten. Also hier sind Integration wirklich essentiell.
Max: Das heißt ja dann auch, dass wahrscheinlich in diesem System oder in diesen Wissensdatenbanken das Wissen auch wirklich gut gepflegt sein muss. Damit der AI Agent, der ja wahrscheinlich genauso wie bei normalen Supportagenten, wenn er da nicht weiß, wo er drauf zugreifen kann und ob jetzt diese Informationen richtig sind, gilt dann wahrscheinlich einfach dasselbe auch für den AI Agent. Je besser da die Infos sind, desto besser kann er auch antworten, oder?
Jonas Wascheroh: Genau, richtig. Also ich finde das immer ein guter Vergleich, wenn man versucht, wie würde ein Mensch das Ganze lösen und wie würde ein Mensch an die Sache rangehen, wenn für eine Information oder für eine Anfrage die Informationen an zehn verschiedenen Stellen irgendwo liegen und keiner weiß, ist jetzt die richtige Version, was ist aktuell und wie gehört das zusammen. dann hat es die KI ehrlich gesagt auch schwer, den Zusammenhang zu erkennen. Und das Ganze muss dann eben auch gut verfügbar sein. eine FAQ-Liste oder ein FAQ-Dokument, was irgendwo ganz weit hinten versteckt liegt und nur schwer abzugreifen ist, ist sowohl für den Mensch als auch für die KI dann nur schwer zugänglich. Mindestens hingegen auf der Website zum Beispiel. immer gut gepflegt ist und gut formatiert und leselech da steht, sowohl für Mensch als auch für KI, dann kann auch hier der AI-Agent bestmöglich das Anliegen lösen.
Max: Ich würde jetzt noch mal zwei neue Buzzwords mit in den Raum werfen. Und zwar ist das einmal Agent Assist und Agentic AI. Du hast es glaube ich schon so bisschen angerissen, aber kannst du da noch mal erklären, was genau der Unterschied zwischen Agent Assist und Agentic AI
Jonas Wascheroh: Genau, sind zwei gute Passworts, die immer häufiger im Umlauf sind. Also wie der Name auch schon sagt, Agent Assist, da war es das Ziel vor allem den Agenten, also hier nicht den KI Agenten, sondern den menschlichen Agenten in der Arbeit zu unterstützen. Also man kann dann eben den AI Agent als Art Werkzeug oder Unterstützungstool sehen, das dem menschlichen Agenten zur Verfügung steht. Das prägt sich zum Beispiel aus, indem das System Antwortvorschläge generieren kann. Das heißt, anhand von einer Kundenanfrage, anstatt dass der AI Agent hingeht und das Anliegen komplett selber löst und vielleicht sogar Fehler machen kann, kann der AI Agent dann den menschlichen Agenten, dem Kundenservice, nun Vorschlag geben. Vielleicht auch nochmal eine Zusammenfassung, was auch ausfolge. anderen Gesprächen wichtig war und dann eben einfach nur den Menschen assistieren bei der Beantwortung der Anfrage oder eben die Anfrage an den bestimmten Mitarbeiter zum Beispiel weiterzuleiten. kurz zusammenfassend alles was den Menschen unterstützen kann und Agentic AI ist dann wirklich das System, also der AI Agent, der wirklich autonom Dinge tun kann. ohne dass da ein Mensch nochmal drüber schauen muss und eben eigenständig die Aufgaben erledigen kann.
Max: Und hier ist glaube ich auch nochmal wirklich ganz wichtig die Integration an andere Systeme. Also sowohl bei Agent Assist als auch bei Agentic AI. Vor allem bei Agent Assist ist ja dann auch, du hast ja gesagt, mit den Antwortvorschlägen. Aber wie man sich das ja dann genau vorstellen kann, dann eben, dass dann eben in der Helpdesk Software oder im Ticketing Tool dann wirklich der AI Agent eben auch wirklich sichtbar ist und da dann ganz klar ist, okay, hier kommt jetzt ein Antwortvorschlag von AI Agent und den kann ich jetzt als Support Agent bewerten oder eben auch einfach direkt zu übernehmen. Das ist quasi so ein bisschen die Fortführung von Makros, die einfach im System eben hinterlegt sind.
Jonas Wascheroh: Genau, richtig. Man kann sich vorstellen wie smarte Makros, die man gegebenenfalls auch noch weiter beeinflussen kann. Also du hast schon richtig gesagt, die man direkt bewerten kann. Das ist auch ein wichtiger Punkt in dem ganzen Ablauf, dass die KI nicht einfach nur Antwortvorschläge geben kann und das war es, dass dann, man nennt es auch so, in the loop, also dass der Mensch dem KI auch wieder zurück Feedback geben kann. dann bei der nächsten Anfrage, gebenfalls, das noch besser zu machen und das System dadurch und den Kundenservice dadurch insgesamt auch verbessern zu können.
Max: Jetzt wo ich dich heute da hab, will ich natürlich auch bisschen ausnutzen und natürlich auch ein bisschen auf die technischen Details eingehen, die wir glaube ich sonst nicht so sehr beleuchten. Aber ich glaube es interessiert wirklich viele. LLMs hat ja glaube ich fast jeder jetzt schon mal gehört seit ChachiBT rausgekommen ist, also Large Language Models. Aber was das überhaupt ist und was genau dahinter steckt wissen glaube ich gar nicht so viele. Vielleicht kannst du da einfach mal bisschen aufklären, was steckt denn technologisch jetzt hinter so einem AI-Agent genau und wie kann man das auch integrieren in bestehende Systeme.
Jonas Wascheroh: Ja, es super spannender Part und ich aus technischer Sicht freue mich natürlich besonders auf den Teil des Podcasts. Genau, also was steckt denn hinter einem AI Agent? Also man kann sich einen AI Agent erst mal vorstellen wie so ein Zusammenschluss auf verschiedenen Bausteinen. Da ist der wichtigste und Hauptbestandteil des Large Language Model, das ist wie das Gehirn des Agents. Und ein Large Language Model wird eben beim AI-Agent benutzt, vor allem Texte zu schreiben, das heißt Antworten zu formulieren, aber auch eben ⁓ nachzudenken, also Pläne zu erstellen, sich selbst zu hinterfragen und dann auch finale Entscheidungen treffen zu können. So einfach gesagt kann man sich so ein Large Language Model vorstellen wie ein Computerprogramm, was Sprache verstehen kann und eben auch erzeugen kann. funktioniert dadurch, dass es mit riesigen Mengen an Texten trainiert wurde. Das kommt zum Beispiel aus ganz vielen Büchern oder dem Internet mit Webseiten und dadurch eben gelernt hat, wie denn überhaupt Sprache, also natürliche Sprache funktioniert. Und es funktioniert dann eben folgendermaßen, man kann sich vorstellen, wie so ein Ratespiel, wo das Large language Model bei jedem Wort, was es bekommt, oder bei jedem Satz, was es bekommt, rät, welches Wort passt als nächstes am besten zu dieser Anfrage. Also zum Beispiel auf die Frage, wie geht es dir, wird ganz oft ja geantwortet, gut, danke. Und diesen Zusammenhang zwischen Wörtern, der existiert eben in ganz vielen Büchern und Webseiten, die dann zum Training dieses Modells genutzt wurden. Das heißt, so das Gehirn und eines der wichtigsten Bestandteile des AI-Agents. Der nächste Part ist dann Das Gedächtnis sogenannte Memory. Das kann man sich eigentlich auch ganz einfach vorstellen, dass der AI Agent erstmal diese Awareness bekommt. Wo ist er denn und mit wem spricht er denn? Das heißt da unterscheidet man häufig in so einem Kurzzeitgedächtnis. Also was passiert gerade in dem aktuellen Gespräch, was ich zum Beispiel mit einem Kunden habe. Also ganz einfach gesagt die ganze, ja der gesamte Gesprächsverlauf. Dann gibt es aber auch noch so ein Langzeitgedächtnis. Das ist eben ganz interessant und wichtig, dass der Agent auch außerhalb von dem aktuellen Gespräch weiß, was zum Beispiel der gleiche Kunde schon eine Woche vorher mit dem System geschrieben hat, da auch Zusammenhänge erkennen zu können oder auch zum Beispiel im Vorfeld gespeicherte wichtige Fakten zu kennen. die zum Beispiel durch das Training dem AI-Agent wieder beigebracht wurden. Und dann auch eines der Hauptunterschiede zu eben klassischen generativen KI-Systemen ist das sogenannte Werkzeugkasten oder Tools von AI-Agents. Und das ist eben gerade im E-Commerce, im Kundenservice essentiell, denn Mit diesen Tools gibt man quasi dem AI Agent eben alle Werkzeuge an die Hand, die es braucht, ⁓ Kundenanfragen lösen zu können. Also so ein Tool kann zum Beispiel sein eine Websuche, zum Beispiel eben Informationen rauszusuchen, Code zum Beispiel auszuführen oder eben ganz wichtig Drittsysteme anzusprechen. Also gerade Integration in dein jeweiliges CRM oder Shop System. eben an wirklich die Kundendaten zu kommen und auch wirklich sinnvoll Anfragen lösen zu können. Ich nehme da immer eigentlich das einfachste Beispiel, erstmal zu verstehen, wie so ein Tool denn funktionieren kann im Zusammenhang mit so generativer KI. Und zwar, ich zum Beispiel frage, wie ist das Wetter in Frankfurt? Kann der Agent ein Tool aufrufen, was ich ihm vorher an die Hand gegeben habe, was genau eben die die Wetterabfrage mit dem Parameter Frankfurt zum Beispiel macht. Und so funktioniert dann quasi auch der ganze Ablauf, dass der Agent bei jeder Anfrage schauen kann, welches Tool ist am geeignesten dafür, dieses Kundenanliegen lösen zu können. Dabei ist auch wichtig zu sagen, dass bei jeder neuen Eingabe der Agent auch die ganze Situation, also den ganzen Kontext auch neu bewerten kann und auch wieder selbstständig handeln kann. Das ist auch einer der großen Unterschiede zu den früheren Kai-Systemen, die in einem festen Ablauf durchgerattert sind. Hier kann eben je nach Informationslage der AI Agent auch wieder ganz anders denken und handeln wie eben zuvor.
Max: Ok, jetzt haben wir am Anfang schon darüber gesprochen über Large Language Models und da gibt es natürlich auch verschiedene Modelle. Kannst du da einfach nochmal erklären, was denn jetzt genau die Unterschiede zwischen diesen unterschiedlichen LLMs
Jonas Wascheroh: Genau, also mittlerweile gibt es ja von ganz vielen Herstellern eben ganz verschiedenste Modelle mit auch ganz verschiedenen Namen und die unterscheiden sich eigentlich grundsätzlich in verschiedenen Punkten. Da einerseits der Punkt, wie groß sind die, also das sind die sogenannten Parameter. so Modelle haben typischerweise mehrere Milliarden Parameter und das spiegelt eigentlich so wieder mit wie viel Daten, denn trainiert wurden. kann sagen, umso größer die Modelle sind, umso mehr Fähigkeiten, also mehr Power haben die auch, aber wir nötigen dementsprechend auch mehr Rechenleistungen, könnten so auch teurer sein. Nächster Punkt ist das Thema Training und Datenbasis, also wo KI-Modelle werden häufig dann bis zu einem bestimmten Zeitpunkt trainiert, also zum Beispiel ein Modell, was nur bis 2023 trainiert wurde. kann dementsprechend auch keine Ereignisse oder kein Wissen aus dem Jahr 2025 haben. Und das kann auch einen großen Unterschied machen in der Aktualität der Antworten. Dann macht es aber auch einen Unterschied mit was eben diese Modelle trainiert wurden, also in welchen Formaten das Training stattgefunden hat. Also war es nur Text oder wurden auch Bilder, Code oder Audio-Dateien zum Beispiel genutzt. weil das kann dann auch wiederum einen entscheidenden Unterschied spielen, wenn man zum Beispiel einen AI Agent aufsetzen möchte, der auch zum Beispiel Bilder verstehen kann. Also gerade bei dem Thema Retoure zum Beispiel, wo ein User, ein Kunde ein Bild von seinem Produkt, von seinem beschädigendem hinschickt, dann macht es da natürlich einen Unterschied, wenn das Modell auch diese Fähigkeit besitzt. Und dann gibt es auch generell verschiedene Sprachfähigkeiten. Also bestimmte Modelle sind vor allem gut darin mehrere Sprachen, also viele Sprachen zu verstehen. Aber es gibt auch einzelne Modelle, die auch nur für bestimmte Sprachen trainiert wurden. Also hier kann man auch entscheiden. Je nach Use Case kann man hier auch verschiedene Modelle wählen. Einer der größten Unterschiede macht aber das Thema der Kontextlänge. Man spricht immer von einem Kontextfenster, wie viel Text kann so ein Modell auf einmal verstehen, also lesen und verarbeiten. Und da haben eben die, je neuer und besser die Modelle werden, desto mehr Text können die verstehen. Und das kann auch dazu führen, dass man eben mehr Kontext zur Beantwortung von so einer Anfrage mit reingeben kann in so ein Modell oder auch längere Gespräche führen kann oder auch mehr Gespräche aus der Vergangenheit dem Modell an die Hand geben kann, das Kundaligen besser zu verstehen. Und zu guter Letzt, gerade auch durch die neuesten Entwicklungen in der Szene, ich mal, hat sich jetzt eine neue Entwicklung von so Modellen ergeben und das ist das Thema Reasoning. Und zwar können damit diese neuen Modelle jetzt in der Lage, sich quasi selbst zu hinterfragen. Das spielt einen entscheidenden Vorteil hier, also die, ich nenne es mal, alten Modelle oder Gängige Modelle, die haben einfach Text bekommen und einfach Text ausgegeben, je nachdem eben welches Wort oder welcher Satz am wahrscheinlichsten für diese Antwort in Frage kommt. Und diese neue Art von Reasoning Modelle, die denken quasi direkt selber mit. Das heißt, wenn ich eine Anfrage habe, können diese Reasoning Modelle erstmal schauen, okay, was muss ich intern tun, diese Anfrage beantworten zu können und können sich sogar, das ist ganz wichtig, selbst korrigieren. Also die können dann bei der Antwortfindung sich selbst noch mal hinterfragen, passt diese Antwort überhaupt zu der Frage, ich bekommen habe oder kann ich sogar noch mal eine Runde drehen und vielleicht noch mal neu das Ganze bewerten. Das ist eben ein Schritt und Fortschritt eben in dieser ganzen Thematik, weil so ein Ansatz war vorher eben nur quasi selber. zu implementieren und das bringen diese Modelle jetzt auch einfach von Haus aus mit. Gerade für das Thema AI-Agent ist das ein Riesen-Riesen-Vorteil.
Max: glaube, kennen auch alle, die ChatGPT viel nutzen, dass es jetzt bei den neuen Modellen auch gibt und dass man da auch genau nachvollziehen kann, der Agent oder wie die AI jetzt eben da genau zur Antwort gekommen ist. Und das dauert dann in der Regel auch ein bisschen länger. Aber ich glaube, da auch super spannend, wenn wir jetzt auch wieder zurück zum Use-Case-Kundenservice kommen. Vor allem, wenn es darum geht, E-Mails zu antworten, da erwarten ja die meisten Kundinnen dann ja auch nicht, dass du innerhalb von fünf Sekunden eine Antwort bekommst. Das kann ja dann schon mal länger dauern und da ist ja glaube ich auch voll in dieses Reasoning, ja auch was du ja auch gesagt hast, was dann auch unter Umständen halt ein bisschen länger dauern kann. Gar nicht so ich sag mal von der User-Freundlichkeit eigentlich gar nicht so schlimm, weil wie gesagt die Kundinnen erwarten sowieso nicht, dass sofort die Antwort kommt.
Jonas Wascheroh: Genau, richtig. Du bringst auf den Punkt, wenn wir von Chatbots reden, da muss man natürlich immer so einen Sweet Spot finden, so eine Balance zwischen schnell genug und gut genug. Man kann dadurch auch nicht immer auf die neuesten und besten Modelle quasi zugreifen, aber genau bei der Beantwortung von der Mail oder vom Ticket haben wir eben den riesen Vorteil, dass wir uns Zeit lassen können und hier auch gegebenenfalls lange nachdenken können. Und das ist auch eben wichtig. für den Benutzer, zum Beispiel auf unserer Plattform, nachzuvollziehen, warum und wie kam der AI Agent überhaupt zu der Beantwortung des Kundenanliegens. Also nachzuvollziehen, wieso hat er denn geantwortet, wie er geantwortet hat, ist eben dieses Reasoning enorm wichtig, quasi nicht nur eine Blackbox zu haben, einfach was irgendeinen Text ausspuckt. sondern auch hier zu verstehen, okay, hier wurde der Bestellstatus abgefragt und weil der Bestellstatus diesen und diesen Wert hat, konnte der Agent deswegen so antworten. Das hilft dann auch zum Beispiel, interne Prozesse zu verbessern.
Max: Du hast es ja auch schon gesagt, mit dieser Reasoning-Logik wird ja am Ende auch sichergestellt, dass die Antwortqualität noch mal viel besser ist und dass auch bestimmte Fehler eben vermieden werden, was mich direkt zum nächsten Thema bringt. AI-Agents sind ja bestimmt jetzt nicht perfekt und machen bestimmt auch viele Fehler. Wo liegen denn aktuell noch so die Grenzen von AI-Agents?
Jonas Wascheroh: Also eines der häufigsten Risiken oder Probleme, die man sieht, immer noch das Thema Halluzination. Das lässt sich grundsätzlich natürlich nicht vermeiden bei so generativen Modellen, aber stark minimieren. Und stark minimieren lässt es sich eigentlich fast immer durch eine gute Datenbasis. Das heißt, wie sind meine Daten strukturiert und verfügbar für den AI-Agent? Also wir hatten es vorhin, wenn die FAQ-Liste oder die Seite sehr schwer zu verstehen und zu lesen ist, kann der AI-Agent das entsprechend auch nur schwer verstehen und versucht ja trotzdem immer das Kundeneinliegen zu lösen und kann dadurch halt leichter dazu raten, auch Dinge zu hallucinieren, also zu erfinden. Das heißt hier auf jeden Fall ist ein Risiko, aber lässt sich eigentlich sehr leicht in den meisten Fällen vermeiden oder fast eliminieren. Ein weiteres Risiko oder weiteren Fehler, den wir häufig sehen, ist eine schlechte User Experience durch eine unklare Übergabe an den echten Mitarbeiter, also an den menschlichen Agenten. Das heißt, es ist unklar, wann wird jetzt in welchem Fall von dem autonomen System, also dem AI Agent an wirklichen Menschen übergeben, denn ab irgendeinem Punkt kann die KI vielleicht gar nicht mehr weiterhelfen und anstatt da den User quasi stehen zu lassen, fehlt oft hier dann diese klare Übergabe an den Menschen, sei es durch im Chatbot zum Beispiel einem Live-Chat oder einem Human Handover in Form von einer Tickterstellung oder einer Mail-Weiterleitung. Ganz wichtig anschließend zur Datenbasis ist eben die Auswahl an Tools, also welche Werkzeuge gebe ich dem AI-Agent überhaupt an die Hand. Wir haben es vorhin erwähnt, also wenn ich einen Mitarbeiter habe, dem ich kein Login zu den Systemen gebe, dann wird es auch schwer haben, Kundenanfang und Kunden-Service lösen zu können. Und das ist eigentlich hier das Gleiche. Das heißt, wenn hier diese Integration, diese Anbindung an die jeweiligen Systeme fehlt, dann hat der Agents auch schwer eben die Anliegen zu lösen. zum Beispiel, wenn der Agent eben keine Integration, keinen Zugriff auf das ERP-System hat, dann kann er mit der Bestellnummer nur wenig anfangen, weil er eben gar keine Ahnung hat, was denn nun der Kunde bestellt hat. Und dann als letzten Punkt oder letztes Risiko ist auch immer so das fehlende Mensch oder das menschliche Review in dem ganzen Ablauf. Das heißt, gerade am Anfang von so einer Einführung im AI Agent geht es auch darum, quasi Hand in Hand mit dem AI Agent zu arbeiten, also Feedback zu geben, gegebenenfalls Grenzen aufzuzeigen, in welchen Fällen soll der Agent überhaupt gar nicht antworten, eben mit dem Ziel, nicht zu viel Autonomie dem Ganzen zu geben. Aber wie gesagt, das lässt sich eigentlich auch leicht minimieren oder eliminieren, indem man da Hand in Hand, vor allem am Anfang, dem AI-Agent arbeitet.
Max: es einmal zusammenzufassen. Also der AI Agent kann viel, aber er braucht eben gute Daten, klare Regeln und menschliche Kontrolle am Ende des Tages. Und ich würde da gerne noch mal auf zwei Punkte eingehen, die glaube ich dann häufig, was häufig auch einfach so ein Fehler im Denkansatz ist beim Einsatz von AI generell oder auch beim Einsatz von AI Agents. Was da viele eben dann häufig denken, es ist einmal dass man mit einem AI Agent jetzt nicht direkt alles automatisieren muss. Es ist häufig so, dieser Anspruch von vielen, ... ... der muss direkt alle Anfragen automatisieren, ... Kundenservice zu 100%, alles muss perfekt laufen. Man kann auch wirklich klein anfangen und erst mal sagen, ... ich will jetzt erst mal 20, 30 % der Anfragen automatisieren, die wirklich einfach ist und das entlastet ja meistens ... den Kundenservice schon deutlich. Und dann kann die KI mit der Zeit immer weiter lernen und man kann eben Schritt für Schritt eben diese Automatisierungsrate erhöhen. Und das Zweite ist eigentlich das, was wir auch häufig hören, ist die KI darf keinen Fehler machen. Und da sagen wir auch, glaube ich, häufig Menschen sind aber auch nicht perfekt und machen auch viele Fehler. Das sehen wir ja auch wirklich tagtäglich, wenn wir in unseren Projekten sind. und teilweise auch dann die Antworten von menschlichen Mitarbeitenden vergleichen mit den Antworten von der AI. Die Menschen antworten auch nicht immer perfekt. Sie stehen auch häufig unter Druck oder haben Stress, müssen ihre average handle time irgendwie einhalten. Und da ist ja auch eine Toleranz für Fehler da. Und die sollte, finde ich, auch bei AI da sein. Klar, die Standards hoch sind oder dass man natürlich, wenn man wirklich auch sehr guten Kundenservice machen will, auch eine sehr gute Antwortqualität garantieren möchte, aber die AI macht eben auch Fehler und ich finde man sollte nicht wählen zwischen, ja wenn die AI nicht alles perfekt macht, dann führe ich es halt gar nicht ein. Also es sollte irgendwo eine Toleranz dafür da sein, denn ich denke Menschen vergessen auch ständig Dinge, können Informationen übersehen oder treffen eben ungenaue Aussagen und wenn wir jetzt mal ganz ehrlich sind, das sehen wir auch. Die KI ist schon in vielen Bereichen bereits besser als wir, als wir wir antworten können. Und deswegen, finde ich, sollten wir aufhören da irgendwie jetzt schon an dem Punkt, in dem wir sind, irgendwie Perfektion von der KI zu verlangen. Da würde ich gerne nochmal zurückkommen zum Kundenservice und einen kleinen Blick in die Zukunft wagen mit dir, Jonas. Wie werden die AI-Agents denn den Kundenservice in den nächsten ein bis zwei Jahren verändern?
Jonas Wascheroh: Ja, das ist spannender Punkt. Vor allem im E-Commerce denken wir, dass der Shift von Reaktionsservice hin zu proaktiven Service geht. Das heißt, nicht einfach wie man den klassischen Kundenservice kennt, wir warten bis die Kunden an Fragen kommen, bis die Kunden an der Tür klopfen, sondern wir weisen die Kunden schon direkt darauf hin, wenn es zum Beispiel zu Problemen kommt. Also klassischer Klassischer Fall ist eben, wenn es zu Lieferproblemen kommt, kann der AI Agent schon direkt proaktiv den Kunden kontaktieren und schon direkt informieren, was los ist, vielleicht sogar auch anbieten, Ersatzlieferungen zu veranlassen. Das heißt hier einfach diesen diesen Shift schon hin überhaupt dieses, dieses ja, das Ticket oder das Kundenanliegen überhaupt erst gar nicht möglich zu machen, weil der Kunde schon so weit geholt ist mit allen Informationen, die er braucht. Ein weiterer Punkt, vor allem im E-Commerce, den wir sehen, dass Kunden so eine AI-Agent als persönlichen Shopping-Assistenten zur Verfügung gestellt bekommen. Das heißt, der Kunde bewegt sich auf der Shop-Seite und bekommt individuell auf den Kunden eben zugestellten eine Beratung oder Vorschläge, die genau zu ihm passen. Und hier im Optimalfall kennt der Agent den Kunden eben so gut genug anhand von vergangenen Bestellungen, Vorlieben, Verhalten, dann eben dem Kunden genau auf ihn geschnittenen Vorschläge geben zu können. weiterer Punkt, den wir sehen, ist das Thema Multimodalität. Das heißt nicht einfach nur Text. verarbeitet zu können, alle möglichen Formen der Kommunikation. Das heißt, Kunden können in Zukunft auch über Telefonie oder zum Beispiel Sprachnachrichten mit so KI-Systemen interagieren und mit dem Shop eben interagieren oder auch über Bilder. Das heißt gerade, ich habe es angesprochen, das Thema Retoure oder Reklamation kann der AI Agent auch schon heute eben Bilder verstehen und analysieren und hier zum Beispiel direkt Fehler, also Produktfehler, auch so Bildern erkennen und so schon direkt das Anliegen lösen, weil das sind auch so häufige Themen, die gerade im Kundenservice viel Aufwand verursachen. Und generell denken wir einfach, dass KI Teil des ganzen Brand-Erlebnisses wird. Also von der gesamten User Journey, das heißt der Kunde kommt auf die Shopseite und hat eben diesen persönlichen Shopping Assistenten in Form von einem Chatbot zur Verfügung, bis hin eben im Kundenservice bei einer Anfrage, wo der AI Agent im Hintergrund eben per Mail zum Beispiel das Anliegen lösen kann und da auch wieder Upselling oder Cross-Selling Angebote für den Kunden auf den Kunden spezifisch zusammenstellen kann.
Max: Jetzt vielleicht noch einmal aus technischer Sicht, ist vielleicht auch interessant, deine Meinung zuzuhören. Wir sehen ja, dass sich den letzten zwei bis drei Jahren der KI-Markt schon sehr rasant entwickelt hat. Was da auch alles dazugekommen ist. Oder wir sehen es auch andauernd, dass neue Modelle rauskommen. Oder jetzt ebenso Sachen wie Reasoning-Logik dazukommt und die Antwortqualität einfach immer besser wird. Oder auch bei Bildgenerierungen wird die KI immer besser und genauer. Siehst du da jetzt auch im Bezug auf Large-Language-Models siehst du da irgendwie in naher Zukunft, okay, da stoßen wir wahrscheinlich irgendwie an irgendeine Grenze, ab wo es sich dann vielleicht nur noch inkrementell irgendwie weiterentwickelt oder optimiert. Oder glaubst du, das geht so rasant wie jetzt voran und es wird einfach wirklich Jahr zu Jahr deutlich besser alles.
Jonas Wascheroh: Ja, also ich denke, wir sind da auf so einer klassischen exponentiellen Kurve jetzt. Durch dadurch, auch quasi das ganze KI-Umfeld nicht, ich es mal, demokratisiert wurde, gerade durch so Open Source Modelle, die wirklich jeder einfach runterladen kann und auf seinem Rechner starten kann und ausprobieren kann, ohne viel Geld für so Clouddienste zahlen zu müssen, ergeben sich eben wieder ganz neue Möglichkeiten und wo wir schon letztes oder vorletztes Jahr, wo der Markt oder die Community gesagt hat, sind schon an so einem Plateau angelangt, wo die Qualität nicht mehr besser wurde, kamen so diese Techniken wie zum Beispiel das Reasing auf, wo einfach mit dem, was schon da ist, wieder neue Möglichkeiten geschaffen wurden, die Qualität zu verbessern. Und das, glaube ich, eigentlich hält noch weiter an. Also ich glaube, viele Techniken oder Möglichkeiten sehen wir gerade einfach noch nicht, die jetzt vor allem in den nächsten Jahren noch aufkommen werden. Also das ganze Thema dieses Reasoning und Self-Enforcement, dass die Modelle sich eben wieder selber bestätigen, abfragen können. Ich glaube, das wird weiterhin enorme Sprünge machen, sodass man am Ende wirklich gar nicht mehr... Also ich glaube, am Ende hat man wirklich nur noch dieses eine Modell. Den gibt man eben diese diese Tools an die Hand. Hier ist mein ERP-System, hier ist mein Shop-System, mein Ticket-E-Mail-System und dann kann das quasi loslaufen und sich so lange abfragen und selbst korrigieren, bis es perfekt die Antwort lösen kann. Also ich sehe da gerade noch keinen Stopp in der Entwicklung.
Max: Ja cool, super spannender Ausblick. Ich finde das Ganze auch super spannendes Thema und es ist ja glaube ich auch wirklich schwierig mitzuhalten, wenn man sich nicht wirklich tagtäglich damit auseinandersetzt, was es alles an Neuheiten gibt. Wer weiß, vielleicht sitzen wir ja ein paar Wochen, Monaten nochmal hier und müssen schon die nächste Technik im AI-Markt besprechen. Jetzt am Ende vielleicht nochmal, so ein kleines Best Practice zu geben für alle, die jetzt starten wollen. Was sind denn so deine drei wichtigsten Tipps für eine erfolgreiche Einführung von einem AI Agent im Kundenservice?
Jonas Wascheroh: Also am wichtigsten, würde ich sagen, ist erstmal klein starten zu können. Also mit abgegrenzten Use-Case. Wahrscheinlich auch der Use-Case, der am häufigsten kommt, das häufigste Servicevolumen hat und die größte Entlastung auch bringen kann, damit zu starten, anstatt direkt alles machen zu wollen und irgendwie alles nur halb. lieber den einen Use Case gut zu machen. Also häufig starten wir da eben mit sowas wie Bestellstatus, weil es eben am häufigsten kommt, da eben auch den Fokus zu haben. Als zweiten Punkt ist ganz essentiell, wir haben es jetzt im Laufe des Podcasts denke ich oft genug auch betont, ist eben die Datenqualität und zur Verfügbarkeit von Schnittstellen und Integration sicherzustellen. Das heißt erst mal zu schauen, worauf kann der AI Agent überhaupt zugreifen, erstmal Wissen zu dem ganzen Unternehmen, Produkten etc. zu haben, also klassische FAQs, Policies, vielleicht im internen Wiki etc. Wie kann der AI Agent darauf zugreifen und wie gut sind die Informationen denn bereitgestellt? Und dann eben aber auch eben die Integration zu den Systemen, also vor allem ERP, Shop System, Ticket oder E-Mail System. gegebenenfalls auch Versanddienstleister wie DRL, DPD etc. Das muss eben sichergestellt werden, dass der AI Agent da Zugriff drauf hat, wenn es benötigt wird, Kundenanliegen lösen zu können. Und dann zu guter Letzt würde ich sagen, schon von Anfang an überlegen, ab welchem Punkt soll denn so eine Übergabe, also ein Junghandover in diesem gesamten Ablauf stattfinden. Also direkt das ganze System als Unterstützung denken und nicht einfach es ersetzt jetzt meinen Kundenservice, sondern zu entscheiden, ab welchem Punkt soll jetzt hier der Mitarbeiter übernehmen, zum Beispiel auch wieder das ganze Thema Sales-Anfragen zu übernehmen und dadurch auch Umsatz steigern zu können. Das eben enorm wichtig, schon von Anfang an mitzuerlegen.
Max: Jonas, vielen Dank für die ganzen super spannenden Insights. Lass mich noch mal ganz kurz die wichtigsten Learnings festhalten. Erstens, AI-Agents sind keine Chatbots. Ich glaube, das ist klar geworden. AI-Agents handeln wirklich aktiv und können eben Entscheidungen treffen und dadurch wirklich, wenn man an den Kundenservice denkt, den wirklich enorm entlasten. Sie automatisieren. echte Prozesse wie Retouren, Bestellstart, Rechnungen oder eben auch Upselling. Sie entlasten das Team wirklich messbar durch Agent Assist und Agentic AI, die beiden Konzepte, die du auch schon erklärt hast. Und die Technologie ist wirklich reif für den Einsatz mit klaren Best Practices und was wir auch gesagt haben, zu betonen. Man kann nicht alle Fehler vermeiden. Man muss eine gewisse Fehler Toleranz haben und Genau, nochmal so zum Schluss. Kleine Handlungsempfehlung auch nochmal für alle unsere HörerInnen. Wenn ihr jetzt Lust habt, irgendwie mit AI Agents loszulegen im Kundenservice oder ihr sagt, ihr wollt vielleicht noch ein paar mehr Infos dazu haben, es vielleicht noch in besserer Form weiterzugeben. Wir haben dafür jetzt ein kostenloses White Paper zusammengestellt mit den wichtigen Use Cases, Tools und auch Prompt Vorlagen. Und den Link dazu hauen wir euch in die Show Notes rein. Zum Schluss vielleicht noch mal Jonas, wie kann man sich mit dir connecten?
Jonas Wascheroh: Ihr könnt mich jederzeit auf LinkedIn anhauen, Jonas Wascheroh, schickt mir gerne eine Anfrage, ich freue mich.
Max: Mega. Vielen Dank dir nochmal. dann nochmal zum Schluss, immer, abonniert den Podcast, lasst uns gerne Bewertung da. Stellt gerne auch eure Fragen auch gerne direkt an Jonas. Wenn ihr nochmal Fragen habt zum Thema AI Agents, dann hinterlasst uns das bei LinkedIn per Mail oder auf allen anderen Netzwerken. Und dann würde ich sagen, bis zum nächsten Mal bei Service Sells
Jonas Wascheroh: Ciao!
Neuer Kommentar