Audiovisuelles Übersetzen. Heike E. Jüngst

Чтение книги онлайн.

Читать онлайн книгу Audiovisuelles Übersetzen - Heike E. Jüngst страница 24

Audiovisuelles Übersetzen - Heike E. Jüngst narr studienbücher

Скачать книгу

      TECHNICAL ASPECTS

      1 Subtitles should be highly legible with clear lettering and a font which is easy to read. The characters should have sharp contours and be stable on the screen.

      2 The position of subtitles should be consistent, e.g.

      centred for film applications;

      left-justified or centred for TV and video applications²;

      two-person dialogue in one subtitle should be indicated by a dash at the beginning of each line.

      1 In video applications, character clarity can be enhanced by a drop shadow or semi-transparent or black box behind the subtitles.

      2 In laser subtitling, sharp contours and removal of residual emulsion can be achieved by precise alignment of laser beam focus and accurate adjustment of power output.

      3 In laser subtitling, the base line must be set accurately for the projection format of the film.

      4 The number of characters per line must be compatible with the subtitling system and visible on any screen.

      Due to the different viewer reading times and the different length of lines for TV/video and film subtitles, TV/video subtitles should be adapted for film application and vice versa. (January, 1998) (www.esist.org/Code.pdf)

      Mit freundlicher Genehmigung von Jan Ivarsson und Mary Carroll, die den Code in seiner ursprünglichen Form erstellt haben (Ivarsson / Carroll 1998).

      Ordnen Sie diese Richtlinien den einzelnen Aspekten des Untertitelns zu. Welche könnte man auch für andere Formen der audiovisuellen Übersetzung übernehmen?

      Bei einer solchen Liste ergeben sich Überschneidungen mit einem generellen berufsethischen Kodex für Übersetzer (wie z. B. beim BDÜ, dem Bundesverband der Dolmetscher und Übersetzer).

      3 Synchronisation

      3.1 Definition

      Unter SynchronisationSynchronisation versteht man, dass die gesamte ausgangssprachliche DialogspurDialogspur (auch Dialogtonspur) durch eine zielsprachliche Dialogspur ersetzt wird. Es bleiben keinerlei Geräuschreste von der ausgangssprachlichen Dialogspur erhalten. Der Zuschauer kann sich so der Illusion hingeben, die Schauspieler wirklich sprechen zu hören.

      Die Definition in der Encyclopedia of Translation Studies findet man unter lip-synchronized dubbingLippensynchronitätlip-sychronized dubbing, um diese Form der audiovisuellen Übersetzung vom Voice-overVoice-over abzusetzen; Pérez González zitiert die allgemein anerkannte Definition von Luyken:

      In the field of audiovisual translation, dubbing denotes the re-recording of the original voice track in the target language using dubbing actors’ voices; the dubbed dialogue aims to recreate the dynamics of the original, particularly in terms of delivery pace and lip movements (Luyken et al. 1991) (Pérez González 2011 [2009]: 17)

      Pérez González geht im weiteren Verlauf der Definition auf den Synchronisationsprozess und die Vor- und Nachteile des Verfahrens ein.

      Im Handbuch Translation findet sich zwar ein Eintrag zum Thema Synchronisation, aber keine Definition des Verfahrens. Vielmehr handelt es sich um eine recht bittere Abrechnung mit der Situation der Übersetzer in der SynchronisationsindustrieSynchronisationsindustrie (Manhart 1999 [2006]: 264-266).

      Es gibt einen kulturbedingten fließenden Übergang der Definition von Synchronisation, Voice-overVoice-over und FilmdolmetschenFilmdolmetschen. Dieses Phänomen wird im Unterkapitel zu Sonderfällen der Synchronisation angesprochen sowie bei der Definition des Voice-over-Verfahrens.

      Im Unterkapitel zum Arbeitsablauf wird erläutert, wie die typische Arbeitsverteilung bei der Synchronisation aussieht. Diese ist für Übersetzer ziemlich enttäuschend und macht Manharts Einlassungen verständlich.

      Forschungsfragen gibt es jedoch zu allen Aspekten der Filmsynchronisation. So haben auch Übungen zu Teilaspekten der Synchronisation, an denen man als Übersetzer nie beteiligt sein wird, ihren Sinn. Sie tragen dazu bei, dass man die Abläufe und Restriktionen bei diesem Verfahren erkennt und versteht und sich eine fundierte Meinung bilden kann.

      Im Gegensatz zu allen anderen Verfahren der AV-Übersetzung, mit Ausnahme des Filmdolmetschens, gibt es zum Thema Synchronisation eine große Menge an Anekdoten und Einblicke in den Ablauf der Synchronaufnahmen. Viele DVDs bieten Bonus-Tracks an, in denen man die SynchronsprecherSprecherSynchronsprecherSynchronsprecher im Studio sehen kann. Leider gibt es bisher keine Bonus-Tracks, bei denen man die Übersetzer beim Spotten und Splitten bzw. bei der Übersetzung eines Synchronbuches schwitzen sieht.

      3.2 Geschichte

      Deutschland ist ein SynchronisationslandSynchronisationsland, d.h. Filme und TV-Serien werden, wie in den anderen deutschsprachigen Ländern, in der Regel synchronisiert. Noch in den 1990ern war es in Deutschland schwierig, an untertitelte Filme heranzukommen; fremdsprachige Videokassetten „bestellte“ man bei Freunden im Ausland. Nur Programmkinos oder Filmfestivals boten den Zuschauern OmUs, also den Film im „Original mit Untertiteln“. „Nur die hartgesottensten Enthusiasten genießen Filme in Sprachen, von denen sie kein Wort verstehen.“, wie Metz und Seeßlen zu Recht bemerken (Metz / Seeßlen 2009). Und Pruys merkt an: „Schlecht gemachte lippensynchrone Fassungen dürfen nicht als Argument für Untertitel gelten.“ Und:

      Eine nachlässige Synchronisation, bei der nicht lippensynchron gesprochen wird, die Dialoge unverständlich bleiben, hölzern klingen oder die Untertitel unangemessen erscheinen, kann zwar von jedem Zuschauer direkt wahrgenommen werden. Ohne genaue Kenntnis der Ursprungsfassung bzw. der Ausgangssprache bleibt aber die Unsicherheit, ob die Originaldialoge nicht noch unverständlicher oder hölzerner sind. (Pruys 2009 [1997]: 20 und 11)

      Das heißt nicht, dass Kritik am Synchronisationsverfahren eine völlig neue Erscheinung ist. Auch als die ersten synchronisierten Filme auf die Leinwand kamen, waren viele Zuschauer alles andere als begeistert:

      Die Schauspieler mit fremden, ,eingeschmuggelten‘ StimmenStimme sprechen zu lassen, kollidierte mit den tradierten Seh- und Hörgewohnheiten. Die zeitgenössische Kritik beschrieb die Synchronisation als ‚Hexerei‘, ‚Homunculus‘, als ‚Amputation‘, bei der auf den ‚blutigen Stumpf‘ eine ,künstliche Stimm-Prothese‘ aufgeschraubt würde. (Bräutigam 2017)

      Näheres dazu, warum ein Land zu einem Synchronisationsland wird, steht in Kapitel 1.4.

      Auf dem Weg zum Synchronisationsland wurden ab der Entstehung des Tonfilms verschiedene Wege gegangen. Zunächst waren weder Synchronisation noch Untertitelung dem stummfilmgewohnten Publikum zu vermitteln:

      Man hat auch eine Synchronisation versucht, die war aber technisch so unzulänglich und das wurde auch überhaupt nicht akzeptiert. Man muss sich ja vorstellen: Es war schon ein Schock, seinen StummfilmstarStummfilmstar plötzlich mit Stimme zu hören. Das lag, wie immer kolportiert wird, nicht zuletzt wegen Singinʼ in the RainSinging in the Rain, weniger daran, dass die Stummfilmstars keine vernünftigen Stimmen hatten. Die hatten zum Teil halt andere Stimmen als man erwartete. Die Stummfilmstars waren irgendwie von der Realität entrückt, und jetzt wurden sie plötzlich ganz konkret mit ihrer Stimme. Ich glaube, das war es, was die Leute gewaltig irritiert

Скачать книгу