Recogni: KI-Chips erobern Autoindustrie

Im Gespräch mit Gilles Backhus, Co-Founder Recogni

Gilles Backhus, Mitgründer von Recogni, gab in der gemeinsamen Podcast-Folge tiefgreifende Einblicke in die Arbeit und die Ziele seines Unternehmens. Recogni, Ende 2017 sowohl in Kalifornien als auch in München gegründet, konzentriert sich auf die Entwicklung von Prozessoren für KI-Inferenz, also das Ausführen bereits trainierter Modelle. Ihr besonderer Fokus liegt auf der Automobilbranche, wobei sie Lösungen anbieten, die über die reine Chip-Herstellung hinausgehen und verschiedene Software- und Hardware-Layer beinhalten.

Ein Merkmal von Recogni ist die tiefgehende mathematische Innovation, die sie in ihre Technologie integriert haben. Indem sie die ständigen Multiplikationen und Additionen in neuronalen Netzwerken effizienter gestalten, erreichen sie eine erhebliche Steigerung der Verarbeitungseffizienz. Diese Effizienz ist besonders entscheidend, da sie den Energieverbrauch der Chips reduziert, was wiederum die Reichweite von Elektroautos erheblich verbessern kann.

Die Gründung von Standorten in Kalifornien und München wurde durch die Notwendigkeit getrieben, ein hoch qualifiziertes KI-Team in Europa aufzubauen. Dies ergab sich aus dem Mangel an KI-Entwicklern im Silicon Valley und der starken Präsenz mathematisch talentierter Absolventen in München.

Die von Recogni entwickelten Chips bieten signifikante Vorteile für moderne Automobile. Sie ermöglichen deutliche Verbesserungen bei ADAS-Funktionen wie automatischen Tempomat und Verkehrsschildererkennung. Durch ihre Fähigkeit, hochauflösende Kamerabilder effizient zu verarbeiten, tragen sie zu einer robusteren und zuverlässigeren Fahrzeugautomatisierung bei.

Diese Fortschritte sind nicht nur für die Verbesserung der aktuellen Autofahrerassistenzsysteme relevant, sondern bilden auch eine wichtige Grundlage für die Weiterentwicklung des autonomen Fahrens, insbesondere in den Bereichen Level 4 und Level 5. Im Detail versteht dies Gilles besser herüberzubringen. Wir gehen direkt rein ins Gespräch mit ihm.

Shownotes:

Edit speaker mapping

Change displayed names for speaker IDs in this transcript.

Transcript

  1. Intro:

    Elektroauto News. Der Podcast rund um das Thema Elektromobilität. Mit aktuellen Entwicklungen, Diskussionen, Interviews und vielem mehr.

  2. Sebastian:

    Servus und herzlich willkommen bei einer neuen Feuerwehr des Elektroautos News 100 Podcast. Ich bin Sebastian und freue mich, dass du diese Woche wieder eingeschaltet hast, wenn es darum geht, dass wir uns in der Welt der E-Mobilität bewegen. Heute mal in einem Umfeld, das nicht so direkt mit dem E-Auto zu tun hat oder über drei Ecken sozusagen, aber dennoch wichtig ist bzw. an Relevanz gewinnt in Zukunft und zwar geht es um das Thema Chips. um die Verarbeitung von Daten nicht nur effizient und schnell zu gestalten, sondern eben auch energiesparend, weil die Energie, die dort eingespart werden kann, sich gleichzeitig wieder auf die Reichweite des E-Autos auswirkt. Hierzu habe ich zu Gast Gilles Backhus, seines Zeichens Vice President of AI und Founder bei Recogni, ein Unternehmen, das 2017 in Kalifornien und in München zeitgleich gegründet wurde, mittlerweile mit OEMs und Zulieferer erster Güte zusammenarbeitet, um eben Fahrzeuge effizienter zu gestalten. Im Detail weiß es Jill natürlich am besten zu erläutern, von daher gehen wir direkt rein in das Gespräch mit ihm. Hi Jill, vielen Dank, dass du dir heute die Zeit nimmst, dass wir uns ein wenig über euch unterhalten, über euer Produkt, was dem E-Auto mehr Reichweite bringt, ohne dass jetzt von außen ersichtlich großartig was dran geändert wird. Bevor wir da allerdings eintauchen und es ein Stück weit besser verstehen können, wie ihr das erreicht, stell dich doch gerne mal selbst vor und dann auch das Unternehmen, für das du tätig bist.

  3. Gilles Backhus:

    Hallo, ich bin Gilles Backhus. Ich bin Mitgründer bei Recogni. Uns gibt es jetzt sechs Jahre, ein bisschen mehr. Und wir haben die Firma Ende 2017 sowohl in Kalifornien als auch in München gleichzeitig gestartet mit dem Ziel für AI-Inference, also nicht Training, sondern das Ausführen schon fertig trainierter Modelle. Prozessoren zu entwickeln. Also Chips, Prozessoren, Silicon, ASICs, wie auch immer man es nennen will. Alles mehr oder weniger ein Synonym jetzt erstmal. Und genau, da haben wir uns dann recht schnell auch dafür entschieden, dass wir die Automobilbranche als unseren Markt angehen und dafür eben Lösungen entwickeln. Das geht natürlich auch manchmal über nur den Chip hinaus. Da gibt es natürlich viele Software-Layer drumherum. Der Chip sitzt auch auf Platinen. Das heißt, auch Hardware-Entwicklung ist natürlich mit dabei. Was so das ist, was wir, ich meine, es gibt natürlich einige Player in dem Space, manche größere, manche kleinere, auch ein paar andere Startups, aber das, was uns, glaube ich, da ein bisschen abhebt, ist, dass wir auf sehr tiefer mathematischer Ebene ein paar Innovationen betrieben haben. Also ganz im Grunde genommen neuronale Netze, AI quasi, besteht zu 50 Prozent aus Multiplikation und zu 50 Prozent aus Addition. Und wir haben quasi diese Mathematik oder diese mathematischen Operatoren, die permanent anfallen, sehr viele davon aktiviert. Da haben wir uns überlegt, wie kann man das denn von Grund auf ein bisschen anders machen, ohne jetzt Genauigkeit zu verlieren. Und da haben wir es eben geschafft, mindestens Faktor 10, wenn man es jetzt mit größeren vergleicht, effizienter zu werden, auch denser zu werden. Also mehr Operationen pro Sekunde pro Quadratmillimeter an Chipfläche. Das ist immer so eine Metrik, die da ganz interessant ist. Genau, das ist so im Endeffekt Recogni. Und ja, wie gesagt, uns gibt es in Silicon Valley und in München mehr oder weniger 50-50.

  4. Sebastian:

    Warum habt ihr euch dafür entschieden, sowohl in Kalifornien als auch in München dann gleichzeitig an den Start zu gehen?

  5. Gilles Backhus:

    der auch am Anfang unser CEO war, der hatte mich quasi mit reingeholt. Mitte 2017 hat er mich kontaktiert. Ich kannte ihn schon aus meiner Masterarbeit in einem anderen Startup, wo er CEO war. Und er hat gesagt, hey, pass auf, wir wollen eine AI-Chip-Firma gründen, was grundsätzlich für mich ein Traum war, weil Chips waren schon lange eine Passion für mich. AI wurde dann durch Studium und Werkstudentenjobs und sowas mein... meine Expertise und dann hat das super gepasst und er hat gesagt, wir brauchen in Europa einen Mitgründer, der dort das AI-Team aufbaut, weil 2017 war es so, es gab nicht so viele AI-Entwickler und wenn du einer warst im Silicon Valley, dann musstest du nur kurz deine Hand heben und wurdest sofort von Apple oder Google eingestellt und wurdest weggenommen vom Talentmarkt und während man hier gerade in München jetzt zum Beispiel mit der TU München und anderen Universitäten sehr gute Schmieden hat, die mathematisch talentierte junge Leute hervorbringen. Und genau von denen haben wir auch dann hauptsächlich eingestellt. Und so haben wir es doch geschafft, hier ein extrem gutes Team aufzubauen. Also so kam das einfach über diese Connection von damals, von der Masterarbeit. Und dann habe ich gesagt, jo, ich mache mit. Und dann haben wir es halt einfach, das war eigentlich nie was fest abgesprochenes, aber es ist einfach so passiert, dass wir immer so mehr oder weniger die Waage gehalten haben. Hier 50 Prozent, drüben 50 Prozent. Und dann haben wir uns erst, nachdem schon klar war, dass ich halt eben hier in München sein werde, haben wir uns erst ein paar Monate später dann auch wirklich für Automotive, also sogar ein Jahr später, am Anfang hatten wir noch überlegt, vielleicht gibt es verschiedene Märkte, wo so ein effizienter AI-Chip Sinn machen kann und haben uns dann später erst entschieden, tatsächlich auch mehr oder weniger durch eine Konferenz in München, die da stattgefunden hatte, dazu entschieden, weil dann haben wir dort eben Leute wie BMW oder Continental kontaktiert. Beide wurden ja später auch Investoren und haben denen gesagt Hey, könntet ihr was anfangen mit so einem Chip? Und dann waren die sofort extrem interessiert und dann kam da richtig so ein Momentum auf und dann haben wir das quasi mitgenommen.

  6. Sebastian:

    Was können die denn damit anfangen? Weil du hast es vorhin schon mal gesagt, was so ein Chip rein abstrakt sozusagen abbildet oder was er an Leistung bringt. Aber für den Endnutzer, Endnutzerin, kannst du es da ein Stück weit greifbarer machen?

  7. Gilles Backhus:

    Also ich glaube, wir kennen das alle so, dass wenn man mal, weiß nicht, vielleicht durch ein Autoverleih mal so ein neueres Auto fährt, also... Die ACC-Funktionen zum Beispiel, also Automatic Cruise Control oder alle möglichen sogenannten ADAS-Funktionen in heutigen sehr modernen Premium-Autos lassen ja immer noch so ein bisschen zu wünschen übrig. Also es geht momentan, das war damals bei Firmengründungen, gab es noch einen riesigen Hype über L4, L5-Fahren, also wirklich vollautomatisiertes Fahren, da können wir später noch drüber reden. Ich glaube, jetzt haben wir gerade das erste Mal wieder Licht am Horizont, dass auch das möglich wird, aber dazu später vielleicht mehr. Aber jetzt ganz aktuell geht es erstmal für die großen Firmen darum, ADAS, also quasi bei diesen SAE-Levels an Autonomie, sagt man so bis Level L2 Plus oder L2 Plus Plus, sagt man auch schon manchmal, auf jeden Fall alles unter L3, das heißt alles, wo noch der Fahrer selber ist. Wenn was passiert, das muss man erstmal jetzt hinbekommen. Das heißt noch robustere Verkehrsschilderkennung, noch robustere Verkehrslicht, also sorry, ich kenne nur die englischen Terms. also Traffic Light Detection, dass das noch robuster passiert, natürlich die ganzen Actors um einen drumherum, also wo sind Fahrzeuge, wo sind Passanten, wo sind Straßenmarkierungen, dass das erstmal wirklich alles ganz reliable funktioniert. Und im Endeffekt bedeutet das, ich brauche sehr viel Rechenleistung im Auto, weil zum Beispiel, wenn ich jetzt ein Verkehrsschild sicher erkennen will, dann muss das ja auch schon auf eine gewisse Entfernung erstmal passieren können. Das heißt, ich muss sehr hoch aufgelöste Kamerabilder verarbeiten können. Damit steigt sogar mehr als linear, also quasi fast schon quadratisch kann man sich vorstellen, die Rechenleistung. Wenn ich jetzt zum Beispiel heutzutage, weil wenn du heute ein Auto kaufst, dann ist es normal, dass du vielleicht... Also dass diese AI-Algorithmen mit vielleicht 1,4 Megapixel die Welt beobachten. Das wird jetzt sehr schnell in Richtung 8 oder 12 Megapixel gehen. Und dann hast du halt bis zu 10 Mal so viel Rechenaufwand auf einmal. Plus noch dazu willst du immer größere Modelle laufen lassen. Also es geht ja jetzt schon so weit, dass diese ganzen neuen Transformer-Modelle, die wir jetzt alle von ChatGPT und so kennen, dass die auch ins Auto kommen. Man versucht da einfach Lösungen zu finden oder Firmen wie wir versuchen einfach den großen Firmen zu helfen, viel Rechenleistung bei nicht viel Stromverbrauch und quasi keinen hohen Kosten ins Auto zu bringen. Und noch, um auf deine Frage jetzt letztendlich wieder zurückzukommen, der End-User spürt das dann einfach durch endlich mal bessere, smoothere Leistungen. den du dann wirklich mal vertrauen kannst. Ich glaube, wir alle kennen das, man vertraut dem noch nicht so ganz. Man ist da immer noch ein bisschen vorsichtig. Selbst wenn man schon hundertmal das ACC im Stau anhatte, denkt man sich immer noch so, naja, es könnte ja was passieren. Und sowieso der Weg hin zu, ich kann mal wirklich am Handy texten, während ich mit 150 kmh mich über die Autobahn fahren lasse, das ist immer noch gut weit weg. Und da versuchen wir einfach mit den großen Firmen zusammen hinzukommen.

  8. Sebastian:

    Jetzt habe ich das verstanden, dass ihr mehr Rechenleistung reinbringt, also diese Operation dann eben auch simpler ausführen könnt. Rechenleistung ist in meiner Welt immer noch gleichgesetzt mit Energieverbrauch. Energieverbrauch jetzt beim E-Auto ist ja jetzt auch nicht so von Vorteil, wenn da immer mehr in Anspruch genommen wird, weil dann sinkt die Reichweite und da spielt ihr aber auch einen Vorteil gegenüber euren Marktbegleitern aus.

  9. Gilles Backhus:

    Es haben auch unabhängige Beratungen aus dem Automobilbereich uns bestätigen können, dass wir in sieben Nanometer, das war jetzt die Technology Note von unserem ersten Chip und in unserer Compute-Klasse, also viele hunderte von Terra-Operationen pro Sekunde, waren wir der energieeffizienteste Chip der Welt oder sind es immer noch. Aber mittlerweile ist die Welt weitergekommen, jetzt redet man von fünf Nanometer oder sogar drei Nanometer. Und das heißt, wir sind da irgendwo die Firma, die es verstanden hat, am energieeffizientesten AI-Berechnungen auszuführen. Das ist erstmal schön. Und was das bringt, ganz direkt, gerade auch im EV-Bereich, ist, man hat so die Pi mal Daumen-Regel, wenn man 100 Watt einspart im Auto, dann erreicht man ungefähr 15 Meilen, also 23 Kilometer oder so mehr EV-Reichweite. Wenn man sich jetzt anschaut, aktuelle Systeme, also wirklich so State-of-the-Art Autonomous Driving, auch von irgendwelchen Startups oder so, die haben momentan keine andere Möglichkeit als von dem großen grünen Riesen, den ich jetzt nicht beim Namen nennen will, sich den Kofferraum vollzuhauen mit Hardware und da bist du schnell mal bei 1 Kilowatt. Das können wir ganz ohne zu übertreiben locker auf 100 Watt runterbringen. Also 100, 120 Watt, irgendwie sowas vielleicht maximal. Das heißt, du sparst Faktor 8 ein, beziehungsweise auch einfach 850 Watt oder so sparst du ein. Dann bist du halt schnell mal wirklich bei... 150, 200 Kilometer mehr Reichweite. Das sind natürlich keine Productionsysteme, mit denen ich uns jetzt vergleiche, muss man auch fairerweise sagen. Aber darum geht es ja. Diese Systeme können keine Productionsysteme aktuell werden, weil der Stromverbrauch viel zu hoch ist. Und da versuchen wir eben jetzt ganz bald schon eben diese ganz tollen AI-Modelle, die ja wirklich sehr beachtliche Dinge mittlerweile können, auch mal in, weiß nicht, dann irgendwann ein normales Fahrzeug wie ein Audi A4 oder so reinzubekommen.

  10. Sebastian:

    Aber dieser Vorteil mit der Reichweitegewinnung, also Energieminimierung, der ist jetzt sozusagen schon umsetzbar. Und ist das auch ein Thema, wo die Hersteller dann natürlich wahrscheinlich darauf anspringen?

  11. Gilles Backhus:

    Also ist das aktuell umsetzbar? Also wir befinden uns jetzt gerade in der Entwicklung unserer zweiten Chip-Generation. Und genau, die wird dann jetzt eben... bald erstmal als Samples rauskommen und dann kann man die Qualifizierungszyklen mit den Automobilherstellern durchgehen etc. Also diesen normalen Prozess verfolgen. Das Interesse von den großen Firmen ist riesig, sowohl von den OEMs als auch von den Tier Ones. Die versuchen da Lösungen zu finden. Es geht da nochmal um einige andere Aspekte auch, nicht nur um Stromverbrauch. Es gibt gerade, also zum Beispiel Chiplets sind gerade ganz groß in aller Munde. Da kommt mehr Modularität und Skalierbarkeit ein bisschen dazu. Auch Kosten im Endeffekt. Also die Bereitschaft ist sehr groß. Man muss momentan sagen, Stand heute wirklich, also November 2023, gibt es jetzt nichts am Markt frei verfügbar, wo du sagen kannst, das kann ich jetzt sofort in ein Auto bringen und habe jetzt auf einmal Die neuesten AI-Modelle laufen, aber einen realistischen Stromverbrauch, den ich verkraften kann, das gibt es aktuell einfach noch nicht und da versuchen wir eben hinzukommen.

  12. Sebastian:

    Du hast vorhin erwähnt, dass unter anderem Continental und BMW bei euch investiert ist, hast aber auch gesagt, dass andere Automobilhersteller ebenso Interesse daran haben. Schließt das eine nicht das andere aus oder wie ist das aufgestellt?

  13. Gilles Backhus:

    Nein, das schließt es eigentlich nicht aus. Wir haben sogar letzte Woche erst wieder, waren wir bei einem großen OEM mit einem Tier 1 zusammen und da gab es sogar den einen Moment, wo derjenige vom OEM, von der Marke gesagt hat, hey, wenn ihr das, was wir hier gerade besprechen, noch an einige andere komplett andere Automarken auch verkauft, ich finde das gut, weil dann profitiere ich einfach von einer größeren Skalierbarkeit und so, also man denkt das immer, das sind absolute Erzfeinde und ja, natürlich, wir haben jetzt zum Beispiel Continental und Bosch drin, da gibt es auch ein paar Artikel in der Presse, wo drin steht, ja, die Die Erzfeinde haben das erste Mal zusammen in ein Startup investiert. Am Ende sind das ganz rationale Investoren. Also das ist dann immer so ein Venture-Arm von diesen Unternehmen. Die schauen einfach, ist das eine Technologie, die eine Zukunft hat? Kann da ein Return of Investment für uns passieren? Also viele von diesen scheinbar sehr Corporate Venture Capitalist Firmen, sind am Ende dann doch auch irgendwo primär finanzielle Investoren. Und nur weil jetzt zum Beispiel der BMW iVentures bei uns investiert hat, heißt das noch lange nicht, dass wir jetzt unbedingt auch mit der BMW Business Unit was am Hut haben müssen. Natürlich sind die Wege dann deutlich leichter und da gibt es dann viele warme Introductions und so. Aber nee, also das blockiert sich jetzt nicht so sehr gegenseitig.

  14. Sebastian:

    Du hast ja auch schon passend ausgeführt, dass eben diese Skalierbarkeit ja dann auch auf der anderen Seite wahrscheinlich nochmal einen größeren Hebel auf die Kosten haben wird und das ist, ich komme selbst aus der Automobilindustrie, ja dann auch immer schlussendlich der Punkt, der es dann zum Ausstieg geben kann, dass man dann dem doch sich breiter öffnet.

  15. Gilles Backhus:

    Genau, voll. Also es gibt sogar gerade, ich habe ja vorhin schon Chiplets erwähnt und da ist es wirklich so, das macht sehr viel, also ganz kurz, Chiplets, was ist das? Da ist die Idee, normalerweise ist es ja so, ich habe einen sogenannten Chipdie, also das, was man von diesen shiny, runden Wafer Disks kennt, die werden dann eben zerschnitten und dann kommt das in so ein Package und dann ist das wirklich das, was die meisten Leute als Chip verstehen, also dieses Gehäuse quasi. Und bei Chiplets geht es darum, ich habe mehrere Dies von verschiedenen Herstellern, also das könnte dann zum Beispiel ein Prozessor-Die von Firma X sein oder von uns zum Beispiel ein AI-Chip-Die und dann gibt es nochmal, weiß nicht, von einem großen Zulieferer, gibt es dann vielleicht nochmal so ein Die in der Mitte, der alles so ein bisschen connectet und dann gibt es noch ein paar Speicherbausteine und das wird alles dann unter einem Dach, unter einem Package zusammengefasst. Also deutlich modulare und das Coole ist dann auch, man kann dann sagen, so Cutting-Edge-Sachen wie das, was wir machen, das macht man dann vielleicht wirklich ganz aggressiv in 3 Nanometer, also etwas höhere Kosten, während andere Sachen vielleicht einfach nur, um alle Kameras anzubinden oder so ein Connector-Die, der ist dann vielleicht sogar in 16 Nanometer oder sowas. Und dadurch spart man Kosten ein. Aber das kannst du nur realisieren, wenn du wirklich jetzt erstmal große Stückzahlen erreichst. Ansonsten lohnt sich es nicht, diese neue Technologie zu entwickeln und in den Markt zu bringen. Und da reden wir wirklich von einer Stückzahl, die so groß ist, dass es schwierig wird für einen OEM, also selbst wenn das die Größten sind, wie Stellantis oder Toyota oder VW, dass das schon fast zu wenig ist, wenn nur die sich darauf committen würden. Das heißt, da redet man wirklich davon, dass dieser große Skaleneffekt erstmal eintreten muss, um eine Technologie zu ermöglichen. Wir sind allerdings guter Dinge, dass das passieren wird, weil die Vorteile liegen einfach auf der Hand und am Ende geht es dann doch auch immer wieder, auch wenn das Volumen vielleicht am Anfang erstmal nicht ganz so hoch ist. Aber ja genau, das kann ich dazu sagen.

  16. Sebastian:

    Jetzt hast du vorhin auch noch das Thema autonomes Fahren mal kurz angerissen, L4, L5, also Level 4, Level 5. Magst du uns darauf noch einen Ausblick geben, was ihr damit auch unterstützen könnt? Das ist ja auch ein Thema, was bei den Automobilherstellern immer wieder aufkommt und so wie du gesagt hast, ja jetzt aktuell auch, dass wir da auch noch einen Blick drauf haben.

  17. Gilles Backhus:

    Also das ist für mich auch mit die spannendste Entwicklung gerade, muss ich sagen. Als wir die Firma vor sechs Jahren angefangen haben, war das in aller Munde. So vollautonomes Fahren. Tesla hat so jedes halbe Jahr versprochen, dass es jetzt in ein paar Monaten auch soweit ist. Und irgendwann sind dann alle so ein bisschen nach der Party aufgewacht und man hat sich vom Rausch erholt und realisiert Naja, vielleicht dauert das alles doch noch ein bisschen lange. Und dann war auch erst mal wirklich so ein Winter an Euphorie, muss man sagen. Und seit Anfang des Jahres mit diesem Advent von diesen großen Transformer-Modellen, die jetzt auch sehr schnell dann im Vision-Bereich, also wenn man wirklich erstmal auf Bilderdaten und so basierend was erkennen will, oder auch sogenanntes Embodiment AI oder Keyboard AI, Gibt es auch andere Begriffe, aber so quasi End-to-End Autonomous Driving. Also ich habe wirklich ein AI-Modell, da kommen am Anfang die Kamerabilder rein und am Ende kommt wirklich der Lenkwinkel und die Gaspedalstellung raus. Diese Endvision, die man da immer hat von Autonomous Driving. Das ist jetzt alles auf einmal möglich, weil man jetzt endlich mal eine Art von AI gefunden hat, die immer weiter und weiter und weiter skaliert. Die alten AI-Modelle haben da ziemlich schnell so ein Plateau erreicht. Du konntest die mit noch mehr Daten füttern und die haben einfach irgendwann nicht noch mehr geschafft. Und jetzt, wir reden da zum Beispiel auch mit manchen Startups, die sehr state of the art sind. die wirklich ihren Kofferraum voll haben mit diesen riesigen Grafikkarten. Aber was die halt demonstrieren können, ist extrem beachtlich. Aber die haben halt eben Modelle, die vielleicht mal schnell 10 Milliarden Parameter haben. Also das ist ein Zehntel so groß wie ChatGPT so ungefähr. Und gut, das hört sich jetzt vielleicht erstmal klein an für den Laien, aber das ist tatsächlich riesig. Das ist nämlich Faktor 500 größer als das, was momentan in einem Premium-Auto rumfährt. Und wo soll jetzt diese 500-fache Menge an Speicher und Rechenleistung auf einmal herkommen? Das heißt, wenn man das jetzt lösen kann, und unsere Next-Gen wird das lösen können, also diese Modelle werden darauf laufen können, und das immer noch in diesen bisschen mehr als 100 Watt, die ich vorher erwähnt hatte, Dann kannst du auf einmal Autonomous Drive Capability ermöglichen, wo es dann wirklich mal anfängt mit L4, L5. Und dann redet man natürlich auf einmal wieder von einem ganz anderen Markt, der auch erschlossen wird. Auf einmal ist der Taxifahrer dann eben wirklich ersetzbar durch einen Computer im Endeffekt. Und wir werden auf einmal ganz andere Formate von Mobilität vielleicht auch haben. Vielleicht wird individuelle Mobilität wieder mehr werden und genau solche Sachen, ja.

  18. Sebastian:

    Sehr spannend, dass wir sowas auch unterstützen. Dann sehen wir vielleicht das Robotaxi ja dann doch noch irgendwann mal auf der Straße, wenn sie auf eure Chips setzen.

  19. Gilles Backhus:

    Ich denke schon. Also die Euphorie ist gerade sehr groß und ja, man sieht das erst einmal in den Weg nach vorne. In Anführungsstrichen, ganz salopp gesagt, wir müssen es jetzt nur noch fertig entwickeln und dann wird das auch endlich mal möglich werden.

  20. Sebastian:

    Dann wollen wir dich da auch wieder an deine Arbeit gehen lassen. Dir vielen Dank für die Einblicke, die wir jetzt bekommen haben und vielen Dank für deine Zeit.

  21. Gilles Backhus:

    Ja, danke Sebastian.

  22. Sebastian:

    Ich denke, die aktuelle Folge hat uns ganz gut gezeigt, dass es unterschiedliche Stellschrauben gibt, um die E-Mobilität eben weiterzubringen, als auch das Thema autonomes Fahren, wie uns Jill hier aufgezeigt hat. Von daher hoffe ich, du konntest auch einiges aus der aktuellen Folge mitnehmen. Ich freue mich, wenn du kommende Woche wieder einschaltest. Bis dahin, mach's gut, ciao.