CommonPonyComputer
Prophet
Eventuell gibts für Fans ja später die Möglichkeit, die fehlenden Scenen über eine KI Software mit passender Audio Engine eigenständig neu zu vertonen.
Man nehme Passagen aus der aktuell verfügbaren Synchronisation & die Software lernt selbstständig die Betonung der alten Synchronsprecher und man schiebe die nachgesprochen deutschen Scenen in die Cut Scenen. Also Ähnliches Prinzip wie bei Peter Cushing, dem Todesstern-Commander in „Star Wars - Rogue One“. Diesen hat man aufwendig per KI CGI für Rogue One „wiederbelebt“.
Hab heute mit Waechters aktuellem Dragonball-Release begonnen und gleich in den ersten paar Episoden gibt es ja auch schon diverse Cut Scenes, in denen es keine deutsche Synchro gibt. Naja, so wurde aus der Schildkröte, die bei uns eine weibliche Stimme hat, plötzlich ein wütender Kerl mit tiefer Stimme xD Also ich tu mich schon schwer damit, mich an diese krass gegensätzlichen Stimmen zu gewöhnen.
Jedenfalls hab ich das zum Anlass genommen, mal etwas in diese Richtung zu recherchieren. Ich glaube, das hier wäre genau das, was wir dafür bräuchten:
GitHub - neonbjb/tortoise-tts: A multi-voice TTS system trained with an emphasis on quality
A multi-voice TTS system trained with an emphasis on quality - neonbjb/tortoise-tts
![github.com](https://github.com/fluidicon.png)
Hab den halben Tag damit verbracht, das zu installieren, um hinterher allerdings festzustellen, dass meine Grafikkarte scheinbar viel zu schwach dafür ist
![Gesicht mit Freudentränen :joy: 😂](https://cdn.jsdelivr.net/gh/joypixels/emoji-assets@5.0/png/64/1f602.png)
Schade, hätte es gern mal ausprobiert, klang viel versprechend. Aber vielleicht will es ja jemand anderes mal versuchen