LLMs vs. Robotik: Die Logik hinter dem 10x Investment-Gap

Shownotes

In dieser Folge spreche ich offen darüber, warum in Large Language Models (LLMs) deutlich mehr investiert wird als in Robotics – und warum das vielleicht sogar sinnvoll ist. Ich teile meine Sicht darauf, wie eng die Entwicklung von Robotern und KI-Modellen inzwischen verzahnt ist und welche Probleme noch gelöst werden müssen, bevor Roboter wirklich massentauglich werden. Es geht um Geschwindigkeit, Halluzinationen und die Frage, wer am Ende das Rennen macht: die klassischen Robotik-Unternehmen oder doch die großen KI-Player wie OpenAI und Google DeepMind? Ich biete euch Einblicke in aktuelle Entwicklungen, persönliche Einschätzungen und einen Ausblick, wohin die Reise für Robotics und KI geht. Hört rein, wenn ihr wissen wollt, warum der Hype um LLMs nicht nur gerechtfertigt, sondern auch strategisch klug ist.

Doppelgänger-Podcast

https://doppelgaenger.ai/

Crunchbase

https://www.crunchbase.com/

TechCrunch

https://techcrunch.com/

OpenAI

https://openai.com/

Google DeepMind

https://deepmind.google/

Gemini Robotics

https://deepmind.google/technologies/gemini/

Figure AI

https://www.figure.ai/

BMW

https://www.bmw.com/

AlphaFold

https://www.deepmind.com/research/highlighted-research/alphafold

Yann LeCun

https://en.wikipedia.org/wiki/Yann_LeCun

Transkript anzeigen

00:00:00: So, damit wieder hallo und herzlich willkommen zur neuen Folge von KI Kader P. Heute bin ich ganz alleine, weil der Alex hat leider die Zeit nicht gefunden.

00:00:10: Der ist so busy.

00:00:11: Ein erfolgreicher Geschäftsmann, was erwartet man denn auch anders?

00:00:16: Und ja, deswegen bin ich jetzt alleine und ich habe gedacht, ich nehme das mal als Anlass.

00:00:23: Ein Thema anzusprechen, was mich heute, man kann schon sagen, fast ein bisschen geträgert hat.

00:00:29: Bekanntermaßen bin ich ja ein großer Stammhörer des Doppelgänger-Podcasts von PIP und PIP Glöckler und PIP Glöckler.

00:00:40: Da sehen ja auch Doppelgänger.

00:00:42: Und da wurde angesprochen, dass die Investitionen in Robotics Deutlich niedriger sind als die Investitionen in LLMs und das ist ja generell ein Take, den der Pip öfter mal vertritt.

00:01:00: Und ja, ich will vielleicht mal ein bisschen Licht ins Dunkel bringen, warum das denn vielleicht einfach so ist und warum das gar nicht so wenig Sinn ergibt, warum das vielleicht auch so sein sollte.

00:01:12: Konkret reden wir von den Zahlen.

00:01:14: In den Robotics in den Jahren ungefähr siebendten Komma zwei Milliarden laut Crunchspace in LLMs waren es sechsundfünfzig Milliarden da ist die Quelle TechCrunch und zwei tausendfünfundzwanzig.

00:01:29: bisher sind wir bei ungefähr acht Komma fünf Milliarden in Robotics.

00:01:34: also das geht jetzt schon hoch und wir haben jetzt schon neunundsechzig Komma sechs Milliarden in LLMs Investitionen gesehen dieses Jahr was natürlich eine riesige Summe ist.

00:01:44: aber Das liegt natürlich auch daran, dass Firmen wie OpenAI Runden angekündigt haben, die teilweise bis zu dreißig Milliarden gehen und dann wundert einen, dass nicht mehr, warum das ein so hoher Betrag ist.

00:02:01: Ja, warum könnte das ganz sinnvoll sein?

00:02:04: Der Pip hatte erzählt, Macht das denn so Sinn, weil eigentlich Robotics wird ja eine viel größere Wertschöpfung schaffen, als das LLMs tun, weil Robotics ja zum Beispiel im Fabriken eingesetzt werden können und auch im alltäglichen Leben eingesetzt werden können.

00:02:23: Und LLMs sind ja nur digital.

00:02:25: und die große Wertschöpfung, die wir auf der Welt haben, die wird nun mal nicht im Digitalen geschaffen, sondern die wird am Ende... in der realen, in der physischen Welt geschaffen.

00:02:35: Und ich finde, das ist ein Take, da kann man durchaus mitgehen.

00:02:41: Das bedeutet aber nicht, dass LLMs nicht dazu beitragen, dass in der physischen Welt am Ende Robotics nutzbar wird, weil es ist so.

00:02:51: Und das wurde da ein bisschen außer Acht gelassen, wenn man diese Rechnung nimmt.

00:02:55: Es ist nämlich so, dass Robotics sehr abhängig von LLMs.

00:03:00: Zumindest ist es gerade der Ansatz, der sich durchzusetzen scheint und der meist vielversprechendste Ansatz ist.

00:03:07: Es ist nämlich so, dass man Robotics mit LLMs part.

00:03:12: Das heißt, man steckt LLMs in die Roboter rein.

00:03:16: Und das ist dann quasi das Gedächtnis.

00:03:18: Das ist die ausführende Instanz innerhalb des Roboters.

00:03:22: Das ist die Instanz, die quasi nachdenkt und die am Ende die Aktionen ansteuert.

00:03:29: Zum Beispiel, ob der Roboter hat einen Vision-Modul im LLM mit drin und dann sieht er zum Beispiel, was gerade passiert, wo er gerade steht, was er vielleicht greifen kann.

00:03:43: und dann kriegt er per Voice, kriegt er einen Befehl, was er machen soll und das verknüpft sich mit einem LLM, was das interpretiert und dann die Handlung ausführt.

00:03:53: Das LLM tut dann quasi die mit Hilfe der Vision-Komponente, mit Hilfe der Voice-Komponente den Roboter sagen, was er machen muss und wie er das machen muss, wie er den Arm steuern muss und so weiter.

00:04:07: Das sind komplexe Verhaltensweisen.

00:04:12: Aber das ist im Grunde gerade das, was passiert.

00:04:15: Und da sind LLMs in ganz, ganz wichtiger Bestandteil drin, dass das funktioniert.

00:04:19: Wir sehen das.

00:04:20: Da sind alle Player, sind da eigentlich drin und verfolgen jetzt diesen Ansatz, weil das der meist vielversprechendste Ansatz ist.

00:04:26: Wir haben da einen Google DeepMind drin, die haben Geminal Robotics vor ein paar Monaten vorgestellt, was sehr, sehr beeindruckend war.

00:04:33: Bis jetzt war das nur so ein Fabrikarm.

00:04:36: Aber da konntest du schon sagen, ja, hier nimm bitte den roten Baustein und setzt auf dem blauen Baustein drauf und das funktionierte.

00:04:45: Natürlich war das ein Demo Video, wir können nie sagen funktioniert das in der Praxis schon so gut?

00:04:50: fair, das ist aber bei allen so, aber das funktionierte und das war auch schon recht schnell.

00:04:55: Dann habe ich letztens eine Demo gesehen von FIGA AI, da hat der Roboter beim CEO die die Waschmaschine befüllt und hat quasi die Wäsche gemacht.

00:05:08: Die verfolgen genau den selben Ansatz.

00:05:09: FIGA AI hat bis, ich glaube, vor ein paar Monaten haben die mit Open AI zusammengearbeitet und hatten Open AI LLMs im Einsatz.

00:05:17: mit Erweiler haben, denen ein eigenes Model, soweit ich weiß.

00:05:20: Und das funktioniert da auch.

00:05:23: Und das funktioniert auch gut.

00:05:25: Das sah gut aus.

00:05:27: Aber was dabei auch auffällt, schon gerade bei diesem FIGA AI Video, das ist halt noch sehr langsam.

00:05:34: Und das sind die großen Probleme, die wir bei LLMs noch lösen müssen.

00:05:38: Da gibt es meiner Meinung nach gerade zwei Probleme.

00:05:41: Es liegt nicht daran, dass die LLMs zu dumm sind.

00:05:45: Ich finde, wir haben mittlerweile einen Intelligenz-Level erreicht in sehr, sehr vielen Bereichen, was die des Menschen sogar übersteigt und wo LLMs deutlich überlegen sind.

00:05:57: Es liegt eher daran, dass wir die Probleme Halluzination und Geschwindigkeit noch haben.

00:06:03: Halluzination ist klar, also die Models hallucinieren und schon gerade wenn das in nem physischen Körper ist, wenn das in einem Roboter ist, dann ist das durchaus etwas Gefährliches und da müssen wir nochmal deutlich mehr aufpassen, dass nichts herhalociniert wird, was nicht da ist und dass die Accuracy nochmal höher ist.

00:06:24: Das ist aber ein generelles Thema bei LLMs und Ich wundere mich, warum da noch nicht so viel Forschung in dem Bereich ist, sondern weiter dieser Race to Bottom in den Benchmarks und in der Intelligenzskala angegangen wird.

00:06:41: Weil ich glaube nicht, dass du die großen Schritte jetzt noch damit machen wirst.

00:06:46: Ich glaube, das ist gar nicht das Ding.

00:06:47: Ich glaube, Accuracy bzw.

00:06:50: Halluzinations.

00:06:52: Verminderung ist gerade eher das Thema und sollte angegangen werden, aber damit schaffst du wahrscheinlich nicht so die Schlagzeilen, wie wenn du bei LM Arena wieder auf Platz eins bist oder in irgendein komischem Benchmark, die am Ende eh keinen Real World Use abbilden.

00:07:09: Ich hoffe, dass sich die Entwicklung dahin noch ein bisschen bemüht.

00:07:12: Das einzige, was wir darin jetzt wirklich gesehen haben, als Innovation zum einen natürlich Finking, was nochmal Halluzination ein bisschen vermindert hat und generell ja auch zu dem Qualitätsanstieg geführt hat.

00:07:26: Und dann gab es den Ansatz Test Time Compute.

00:07:29: Du lässt Finking LLMs mehrere Instanzen gleichzeitig laufen und dann nimmst du das beste Ergebnis von den zwanzig Instanzen, die gelaufen sind.

00:07:43: Ist jetzt aber vielleicht kein praktikabler Ansatz, weil das wieder sehr, sehr viel Rechenpower braucht.

00:07:49: sehr lange dauert und sehr viel rechenpower braucht und das ist in der realen welt eigentlich nicht praktikabel.

00:07:54: das kannst du natürlich nutzen.

00:07:56: wenn du jetzt mal einen sehr sehr schwachen task hast dann gehst hin zu den gpt-five pro hin sagst lösen wir das bitte.

00:08:03: es gibt bestimmt sehr sehr viele tasks das war auch schon bei all one pro so die dann nur dieses gpt-five pro oder grock vor heavy nutzen bei dir den selben ansatz mit test time compute parallel processing lösen kann.

00:08:19: Aber das ist jetzt nicht so viel und in der realen Welt kaum nutzbar.

00:08:26: Schon gerade nicht in Robotern.

00:08:27: Weil was ist das zweite Problem neben Halluzinationen in Robotern?

00:08:31: Das zweite Problem ist ganz einfach, wir haben da das Problem der Geschwindigkeit.

00:08:36: Das hat man ganz klar bei FIGA AI gesehen in diesem Video mit den wo die Wäsche gemacht wird von den Roboter.

00:08:44: Die Geschwindigkeit ist sehr, sehr langsam und das ist natürlich, wenn du das im Production nutzt, ein riesiges Problem, weil Zeit ist Geld.

00:08:52: Es ist nicht nur in der Wirtschaft auch ein echtes Leben.

00:08:54: Du hast ja keinen Bock, dass der für deine Waschmaschine zwei Stunden braucht, um die einmal einzuräumen.

00:09:02: Was ist da das Problem?

00:09:03: Am Ende Geschwindigkeit ist ja ein Hardware-Problem.

00:09:06: Es ist ja nicht so, dass ein LLM... einen festgelegten token speed hat der der einbrück der tut sich vielleicht aufdrängen aber das ist nicht so sondern llms haben den token speed so eingestellt weil das die hardware einfach her gibt.

00:09:22: wenn auch mehr einmöchte dann könnten die Ich glaube, das Model existiert es noch.

00:09:26: GPT-VFive war immer sehr langsam.

00:09:28: Die könnten GPT-VFive viel schneller anbieten.

00:09:32: Aber das ist so ein großes Model, dass es sowieso schon sehr viel Rechenleistung braucht und dann bräuchte es noch mehr Rechenleistung.

00:09:38: Deswegen ist GPT-VFive so langsam.

00:09:41: Und das ist kein Thema, was hart codiert ist, sondern es ist jederzeit anpassbar durch mehr Hardware-Usage.

00:09:50: Das ist noch ein Problem bei Robotern, weil man möchte ja eigentlich möchte, man die ja gar nicht in der Cloud haben.

00:09:56: Das ist ja gar nicht das, was man will, sondern eigentlich möchte man die LLMs direkt auf der Hardware in den Roboter drin laufen haben.

00:10:04: Und da hast du natürlich nur einen beschränkten Platz, dann gibt es noch das Kostenthema.

00:10:08: Du kannst jetzt auch nicht eine GPU für ein Dreißigtausend kannst du da auch nicht reintun.

00:10:14: Das heißt, man muss den Roboter schon für zwei Hunderttausend verkaufen.

00:10:19: Deswegen, da müssen wir noch hinkommen, dass es effizienter wird, dass es Hardware schon da wird.

00:10:24: Und da ist ein Test-Time-Comput-Ansatz mit Parallel-Processing genau der falsche.

00:10:30: Diese zwei Themen müssen wir angehen.

00:10:32: Einmal, dass wir Halluzination reduzieren und einmal, dass wir effizientere LLMs haben, die auch auf schlechterer Hardware sehr gut laufen und trotzdem noch sehr intelligent sind und die Taschen vollführen können, egal was passiert.

00:10:46: Weil du kannst auch nicht ein hochspezialisiertes LLM nur in so ein Roboter tun, weil es kann immer etwas Unvorhersehendes passieren.

00:10:53: Deswegen, das muss schon ein sehr gutes LLM mit General Knowledge sein.

00:11:01: und auch ein Stück weit World Knowledge.

00:11:04: Und deswegen brauchen wir da mehr Effizienz.

00:11:07: Und ich hoffe, dass die Entwicklung langsam dahin geht.

00:11:10: Wir haben das schon gesehen.

00:11:11: Wir haben schon echte intelligente Models mit dreizwanzig Milliarden Parametern, mit dreißig Milliarden Parametern gibt es schon.

00:11:19: Das wird immer besser und das ist recht.

00:11:22: resources.

00:11:22: Resource und Schont auch schon hausbar, trotzdem noch weit davon entfernt, das jetzt in so ein Roboter wirklich einzusetzen mit einer hohen Geschwindigkeit, weil nochmal es geht da auch um Geschwindigkeit.

00:11:34: Diese beiden Themen müssen gelöst werden, dann werden wir glaube ich in Robotics einen riesigen Vorsprung sehen.

00:11:40: und das sind LLM Themen.

00:11:42: Man kann jetzt sagen, FIGA AI macht ein eigenes Model, deswegen sollte ich vielleicht jetzt bei FIGA AI investieren, damit die jetzt besser LLMs bauen und deren Roboter dann besser werden.

00:11:53: Ich weiß nicht, ob das der richtige Ansatz ist oder ob FIGA AI sich nicht eher darauf konzentriert, die Roboter besser zu bauen.

00:12:02: Und er so darauf schielt, dass die Forschungsergebnisse aus der LLM Community dann auch sowieso irgendwann öffentlich werden und man darauf aufbauen kann.

00:12:13: Das ist ja das, was wir sehen.

00:12:16: OpenAI hat letztes Jahr oven preview veröffentlicht.

00:12:20: Es hat nicht lange gedauert, dann hatte die Konkurrenz auch reasoningmodelle da.

00:12:25: Und das ist so ein bisschen commodisized.

00:12:28: Allein schon, weil China sehr, sehr viel Open Source eröffentlicht.

00:12:31: Aber so drei, vier Monate Vorsprung mehr hat eigentlich keiner.

00:12:35: Dann ist das Wissen eigentlich public für alle da.

00:12:38: Und deswegen, ich glaube, der smarte Ansatz ist, was ja auch passiert, dass man das Geld in die LLM Forschung pumpt.

00:12:46: Und sobald dann irgendwann der Punkt erreicht ist, dass wir so gute, effiziente und hallucinationsfreie LLMs haben, dass Robotik wirklich das, was im Robotern in der Masse und schnell verwendet werden kann, dann wird es auch ein Schiff geben und es wird dann mehr auf die Robotik-Firmen gehen, die dann die LLMs nutzen können.

00:13:09: Und dann geht es wirklich nur noch darum, den Roboter zu perfektionieren.

00:13:13: Aber ich glaube, es macht schon Sinn, dass gerade der erste Step ist, das Geld in LLMs zu investieren, zumindest aus einer wissenschaftlichen Perspektive, um die Entwicklung voranzutreiben.

00:13:26: Dazu kommt noch, dass auch aus einer wirtschaftlichen Perspektive das ziemlich sinnvoll sein kann, weil OpenAI zum Beispiel möchte ja auch einen Roboter bauen und man muss auch im Kopf behalten, wer am Ende das stärkste LLM hat.

00:13:40: Und wir wissen zum Beispiel von Open AI, dass sie noch einen LLM haben, was sie die nächsten sechs Monate nicht veröffentlichen werden und nur intern nutzen werden.

00:13:50: Wenn du dieses LLM hast, dann fällt es dir, höhst wahrscheinlich auch, weil du einen Intelligenzvorsprung gegenüber allen anderen hast, leichter, damit Forschung zu betreiben, auch in anderen Bereichen.

00:14:00: Das heißt, die können wahrscheinlich leichter jetzt neue Roboter entwickeln, als die Robotikfirmen, weil sie einfach ein sehr, sehr intelligentes LLM haben, was ihn dabei helfen kann, was als Agent in der Entwicklung mit eingebunden werden kann und nicht der frei verfügbar ist.

00:14:20: Ich gehe davon aus, dass besonders Google DeepMind auch sehr, sehr viel in der Richtung hat.

00:14:24: Deswegen, meine Wette würde hier dann auch wieder auf Gemini Robotics gehen.

00:14:28: Ich sehe Google generell in allen Bereichen sehr, sehr, sehr gut positioniert und die haben auch schon mit AlphaFold zum Beispiel bewiesen.

00:14:37: Und dass die es schaffen, mit AI Hilfe, mit Hilfe von AI Agents und Research am Ende natürlich Experten unterstützt, wirklich Bahnbrechendes wissenschaftlich zu leisten.

00:14:49: Also ich wäre mir nicht sicher, dass die Robotik Firmen, die wir jetzt sehen, wie ein Figure AI, wie ein One X aus China.

00:15:00: dass das die Gewinner in Robotik sein werden, sondern ich kann mir sehr sehr gut vorstellen, dass das vielleicht ein Phobic, ein Google DeepMind oder ein Open AI auch sein wird, weil es leichter für die Wirt zu pivoten, na gut was heißt pivoten, weil es leichter für die sein wird, die LLMs in den neu entwickelten Roboter von denen zu übertragen, mithilfe der LLMs als umgekehrt für die Roboterfirmen.

00:15:30: an Bahnbrechen der LLMs ranzukommen, sollte nicht das dann auch schon komortisiert und Open Source sein.

00:15:39: Dazu hat natürlich ein Open AI und ein Propic mittlerweile auch eine Nutzerbasis und natürlich ein Google auch, wo ein FIGA AI und Co.

00:15:50: noch von träumen können.

00:15:52: Natürlich, die haben Industriekontakte, FIGA AI hat ja sehr prominent mit... Ich meine BMW war es zusammengearbeitet.

00:16:01: Aber ich kann mir nicht vorstellen, dass im BMW nicht auch Kontakte zu OpenAI, Enfopec und Co.

00:16:06: hat.

00:16:06: eigentlich mittlerweile, glaube ich, jedes Enterprise der Welt arbeitet mit einem der großen drei KI-Unternehmen.

00:16:14: Alles andere ist auch fatal.

00:16:17: Deswegen, mein Take, es ist, glaube ich, schon sinnvoll, jetzt so viel Geld in LLMs zu pumpen, weil das... In alle Richtungen zu einem, wenn du wirklich es schaffst, dir einen Vorteil herauszuarbeiten und den geheimen zu halten, zu bahnbrechender Technologie führen kann, die du mit den LMM, was du erschaffst, erschaffen kannst.

00:16:41: Und deswegen könnte es am Ende sein, dass einem FIGAR AI und Co.

00:16:45: gar nicht in Robotics die Nummer eins werden, sondern der Open AI on Enforpeak, Google DeepMind, einer von denen.

00:16:53: Das wäre mein Take und ganz.

00:16:56: was dahintersteckt ist halt auch das LLM ist ein sehr sehr wichtiger Bestand der von Robotics ist.

00:17:02: Das lässt sich glaube ich auch nicht trennen außer wir finden einen anderen Ansatz.

00:17:06: Ich rede immer unter den aktuellen Präjudikmen, weil es kann natürlich sein.

00:17:11: dass das LLMs, das will ich gar nicht abreden, so wie Jan Le Kün sagt, dass LLMs in ein oder zwei Jahren oder vielleicht auch schon in drei Monaten obsolet werden, weil ein neuer Ansatz da ist, der deutlich überlegen ist.

00:17:25: Vielleicht postet in drei Monaten, postet Meta A, Jan Le Kün hat gewonnen, wir haben hier den Ansatz gefunden, LLMs sind obsolet.

00:17:34: Wir können das nicht voraussehen.

00:17:36: Und um ehrlich zu sein, es weiß ja auch niemand, wie... dass alles funktioniert.

00:17:42: Ich habe heute noch ein AI-Paper gelesen, das stand drin.

00:17:45: Ja, wir haben es geschafft, das zu optimieren und das funktioniert jetzt deutlich besser und effizienter.

00:17:53: Wir können aber leider nicht sagen, wieso.

00:17:56: Es ist Zufall und es ist Gottes guter Wille, dass das Städte wirklich so drin, dass das jetzt besser funktioniert.

00:18:08: Von daher... Es ist halt schon auch eine Blackbox irgendwie.

00:18:12: Dieses ganze AI ML-Thema LLMs, das ist eine Blackbox und das ist viel ausprobieren.

00:18:20: Und wenn du dann irgendwann wirklich sehr, sehr gute, also nochmal auf dieses AI-IIK-Paper zurückzugehen, wenn du irgendwann eine sehr, sehr zuverlässige hallucinationsfreie AI hast, Dann kannst du auch mit der, glaube ich, noch mal besser forschen, die so endlich einen Vorsprung gegenüber der Konkurrenz herarbeiten und das auch in alle möglichen Domänen übertragen.

00:18:46: Deswegen, ich glaube, es ist schon rational jetzt in LLMs so viel zu investieren.

00:18:51: Ob sich das wirtschaftlich hinterher aussah, weiß man nicht.

00:18:54: Es ist hundertprozent auch ein Machtthema.

00:18:58: Aber ich verstehe das schon, warum gerade so viel mehr Geld in LLMs investiert wird.

00:19:04: als in Robotics.

00:19:06: Auch wenn ich sagen würde, ein bisschen mehr könnte vielleicht noch in Robotics gehen.

00:19:11: Aber die warten glaube ich am Ende, wartet Robotics gerade auch sehr stark darauf, dass die LLMs sich noch verbessern.

00:19:17: Wir sind noch nicht an dem Punkt, wo das komplett umschwenkt in die physische Welt, weil die LLMs dafür noch nicht schnell genug beziehungsweise effizient genug, schnell heißt immer effizient.

00:19:30: Ich habe ja erklärt wieso.

00:19:32: und noch nicht hallucinationsfrei genug sind.

00:19:36: Ich hoffe nur, dass dieser Shift langsam kommt und wir nicht immer nur gucken, dass das neueste LLM jetzt einen noch besseren Score bei LLM Arena oder bei denen und dem Benchmark erreicht, sondern dass wir einfach gucken, dass real-world-use-cases, dass die Hallucinationen runtergehen und dass Geschwindigkeit ein bisschen höher, Geschwindigkeit bzw.

00:19:58: effizient sich positiv entwickelt.

00:19:59: Das wäre sehr wünschenswert.

00:20:02: So, das war ein langer Monolog.

00:20:06: Ich hoffe es hat allen gefallen.

00:20:10: Ich hoffe es und ich bin gespannt wie die Folge bei euch ankommt.

00:20:14: Ob ihr meine Meinung teilt.

00:20:17: Please tell me goodbye.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.