Semantik — Was wir sagen … was es bedeutet … wahr oder falsch?

In der Semantik geht es um die Satzbedeutung (= Bedeutung der Elemente des Satzes) und die Äußerungsbedeutung (= Wahrheitsgehalt bezogen auf den situativen Kontext).

Jeder Ausdruck hat eine Denotation (= ursprüngliche Bedeutung; die Denotation von “Mann” und “Kerl” z. B. ist die gleiche), eine Extension (= Referenten in der aktuellen Welt) und eine Intension (= die Menge aller Referenten dieses Ausdrucks in allen möglichen Welten).

Wortbedeutung (lexikalische Semantik)

Es gibt in der lexikalischen Semantik zwei Hypothesen zur Kategorisierung von Wörtern: die Merkmalshypothese, die jedem Wort ein Merkmalsbündel zuordnet (bei “Frau” z. B. [-ABSTRAKT], [+BELEBT], [+HUMAN], [+WEIBLICH], [+ERWACHSEN]) (und die ich persönlich nicht sonderlich zielführend oder logisch finde); und die Prototypentheorie, die davon ausgeht, dass jede Kategorie einen typischen Vertreter hat, den Prototyp, dem die anderen Vertreter der Kategorie mehr oder weniger ähnlich sehen. Wie genau so ein typischer Vertreter, oder Prototyp, aussieht, hängt von diversen Faktoren ab (z. B. der Region, in der man aufgewachsen ist) und ist nicht für jeden gleich.

Ein weiterer wichtiger Aspekt der lexikalischen Semantik ist die Untersuchung von Sinnrelationen, also zu gucken, in welcher Beziehung zwei Wörter zueinander stehen. Eine Auswahl dieser Beziehungen:

Synonymie
Echte Synonymie, also Gleichbedeutung zweier Wörter, ist selten. Im Deutschen wären Beispiele dafür Orange Apfelsine, oder Couch Sofa.

Antonymie
Antonymie bezeichnet die Gegensätzlichkeit. Zumeist wird dieser Begriff auf Adjektive angewendet. Dabei werden zwei Arten der Antonymie unterschieden: die kontradiktorische Antonymie (Komplementarität), oder ausschließende Antonymie (z. B. tot — lebendig); und die konträre Antonymie, bei der es zwischen zwei gegensätzlichen Polen unterschiedliche Grade gibt (z. B. heiß — kalt).

Hyponymie / Hyperonymie
Hier handelt es sich um die Unter- (Hyponymie) bzw. Überordung (Hyperonymie) von Begriffen (z. B. Mädchen — Kind).

Kohyponymie
Kohyponyme haben das gleiche Hyperonym, also den gleichen Oberbegriff (z. B. Spatz, Amsel — Vogel).

Meronymie
Wenn eine Teil-Ganzes-Beziehung vorliegt, sprechen Linguisten von Meronymie.

Polysemie
Hierunter fallen unterschiedliche Bedeutungsvarianten eines Wortes, die von derselben Kernbedeutung abstammen (z. B. Schule als Institution, Schule als Gebäude).

Homonymie
Unter Homonymie versteht man die Gleichheit zweier Wörter. Unterbegriffe sind Homophonie (gleiche Aussprache) und Homographie (gleiche Schreibweise).

Polysemie und Homonymie lassen sich unter Ambiguität (lexikalische Mehrdeutigkeit) zusammenfassen.

Satzbedeutung — die Logik in der Sprache

Aussagenlogik befasst sich nicht mit den Inhalten, sondern nur mit den Wahrheitsgehalten von Aussagen.
Eine Tautologie ist eine Aussage, die logisch wahr ist, während eine Kontradiktion eine Aussage ist, die logisch falsch ist. Kontrarität entsteht hingegen dann, wenn zwei Sätze nicht gleichzeitig richtig, aber gleichzeitig falsch sein können.
Paraphrasen sind synomyme Sätze.
Eine Implikation (Inklusion) liegt dann vor, wenn ein Satz p wahr ist und daraus folgt, dass ein Satz q auch wahr sein muss.

Thematische Rollen

Thematische Rollen sind Kategoriebegriffe für die Argumente von Prädikaten, z. B.:
AGENS
PATIENS / THEMA
ADRESSAT (GOAL)
QUELLE (SOURCE)
ORT / LOKATION
INSTRUMENT
EXPERIENCER
POSSESSOR

Advertisements

Pragmatik — Die Quadratur der Kommunikation

Frei nach Friedrich Schulz von Thun hat jede Kommunikation vier Seiten: Die Senderseite (Wer sagt etwas?), die Empfängerseite (Wer hört es?), die Nachrichtenseite (Was wird gesagt?) und die Beziehungsseite (In welcher Beziehung stehen Sender und Emfpänger zueinander?). Hier setzt auch die Pragmatik an: Sie untersucht eine Äußerung in ihrem Kontext (Sprecher, Hörer, Zeit, Ort, Sprechsituation) und unabhängig von Wahrheitsbedingungen.

Im Rahmen der kontextabhängigen Deutung werden sprachliche Ausdrücke in zwei Kategorien unterteilt:

Deiktische (zeigende) Ausdrücke (z. B. ich, du, hier, jetzt, gestern), die auf eine Referenz im Kontext der Sprechsituation verweisen; und anaphorische Ausdrücke (z. B. er, dieser, kurz davor), die auf eine Referenz im Textkontext verweisen.

Daneben befasst die Pragmatik sich mit bestimmten Folgerungen aus Äußerungen, nämlich den Präsuppositionen, den semantischen Implikationen (Entailments) und den Implikaturen (konventionell und konversationell).

Präsuppositionen sind logische Folgerungen, die sich unabhängig vom Wahrheitsgehalt einer Aussage ergeben.

Beispiel: Frank hat gekündigt.

Präsupposition 1: Es gibt ein Individuum namens Frank.
Präsupposition 2: Er hatte einen Job.

Bei den Auslösern einer Präsupposition wird unterschieden zwischen Eigennamen, definiten Nominalphrasen, Verben der Zustandsveränderung, Temporalsätzen, Temporaladverbien, faktiven Verben und kontrafaktischen Konditionalen.

Eine Präsupposition kann durch (sprachlichen oder situativen) Kontext aufgehoben werden.

Für Präsuppositionen gibt es einige Tests, um sie von Assertionen (dem wahrheitsfunktionalen Gehalt von Aussagen) und semantischen Implikationen zu unterscheiden.

1) Negationstest (wenn der Satz verneint wird, bleibt die Präsupposition trotzdem bestehen)
2) Modalisierungstest (wenn der Satz modalisiert wird, bleibt die Präsupposition bestehen)
3) Fragetest (wenn der Satz zu einer Frage umformuliert wird, bleibt die Präsupposition bestehen)
4) Konditionalisierungstest (wenn der Satz ins Konditional gesetzt wird, bleibt die Präsupposition bestehen)

Semantische Implikationen (Entailments): Satz p impliziert Satz q, d. h. wenn p wahr ist, ist auch q wahr.

Beispiel:
p: Karl wurde erschossen.
q: Karl ist tot.

Konventionelle Implikaturen sind mit der Bedeutung eines Ausdrucks fest verbunden, ohne Einfluss auf die Wahrheitsbedingungen zu haben; sie geben einem Ausdruck eine zusätzliche Bedeutungskomponente (z. B. die Anrede “Sie” vs. “du”). Diese Art Implikaturen sind nicht aufhebbar, aber ablösbar (können mit einer Paraphrase ausgedrückt werden, die nicht die zusätzliche Bedeutungskomponente hat).

Konversationelle Implikaturen hingegen entstehen jeweils nur in bestimmten Äußerungssituationen. Die Grundlage hierfür bildet die Annahme, dass es Maximen gibt, die jede Konversation steuern und an die die Beteiligten sich in der Regel halten. Die vier Maximen werden unter dem Kooperationsprinzip zusammengefasst und lauten:
1) Maxime der Qualität
2) Maxime der Quantität
3) Maxime der Relevanz
4) Maxime der Modalität

Auf der Basis des Kooperationsprinzips werden Äußerungen interpretiert (inkl. scheinbarer und tatsächlicher Nicht-Befolgung der Maximen). Ironie z. B. wäre eine Verletzung der Qualitätsmaxime, weil die gemeinte Aussage ins Gegenteil verkehrt wird (vlg. “Peter, das hast du ja toll gemacht!”, wenn Peter gerade etwas kaputtgemacht hat).

Graphematik — Warum schreiben wir so, wie wir schreiben?

Heute dreht sich alles um unsere Rechtschreibung und die Prinzipien, die sich dahinter verstecken. Denn ja, ob ihr es glaubt oder nicht, unsere deutsche Rechtschreibung hat Sinn und Verstand dahinter!

Warum tun sich viele Kinder dann trotzdem so schwer, unsere deutsche Rechtschreibung zu lernen? Nun, die deutsche Sprache richtet sich nicht ausschließlich nach dem phonographischen Prinzip (das besagt, dass jedes Phonem genau einem Graphem zugeordnet ist). Dabei ist Graphem ≠ Buchstabe. Das Deutsche kennt nämlich auch sogenannte Di- und Trigraphen (, , , , , , ).

Während viele Wörter nach dem phonographischen Prinzip richtig geschrieben werden können, haut es leider nicht bei allen Wörtern hin. Vergleicht die Wörter (/ziːgən/ -> ) und (/baːn/ -> ). Das ist ein Graphem für das langgesprochene [iː] und wird demnach beim phonographischen Schreiben richtig wiedergegeben. Auch das Graphem für das Phonem /z/ ist belegt. Das langgesprochene [aː] auf der anderen Seite entspricht, genau wie das kurzgesprochene [a], dem Graphem . Die deutsche Großschreibung von Substantiven ist ebensowenig Teil des phonographischen Prinzips, so dass aus “Bahn” die Verschriftlichung wird.

Welche anderen Prinzipien bestimmen also, wie wir Deutschen schreiben?

Nun, zum einen wird unsere Orthographie durch die Politik bestimmt. Die zugrundeliegenden Regeln kommen allerdings aus der Graphematik, und die meisten orthographischen Regeln lassen sich auf ein oder mehrere graphematische Prinzipien zurückführen.

Neben dem oben erläuterten phongraphischen Prinzip gibt es das sogenannte silbische Prinzip, das eng mit der Silbenphonologie verwandt ist (siehe auch meinen Post zur Phonologie, Teil 2). Es hängt mit dem Längenausgleich innerhalb einer Silbe zusammen, der besagt, dass ein ungespannter (also kurzer) Vokal niemals in einer betonten offenen Silbe steht, und dass eine komplexe Koda mit mehr als einem Konsonanten niemals auf einem gespannten (also langen) Vokal folgt (ja, es gibt auch hier leider Ausnahmen, z. B. die Wörter und ). Problemfälle sind in der Hinsicht die Silben mit nur einem Konsonant in der Koda, da gespannte und ungespannte Vokale in der Regel (Ausnahmen sind vs. und vs. ) mit dem gleichen Graphem verschriftlicht werden.

Um hier Abhilfe zu schaffen, gibt es verschiedene Möglichkeiten, gespannte Vokale kenntlich zu machen. Eine davon ist das Dehnungs-h, das allerdings nur vor den Sonoranten , , und auftritt. Dann wiederum gibt es die Vokalverdoppelung, die aus visuellen Gründen grundsätzlich nur bei
, und möglich ist.

Auf der anderen Seite werden Silbengelenke, die nur nach ungespannten Vokalen auftreten, durch Konsonantenverdopplung kenntlich gemacht (Di- und Trigraphe werden nicht verdoppelt, für und gibt es besondere Schreibweisen im Silbengelenk: und ).

Auch das silbentrennende gehört zu diesem Prinzip. Es wird zwischen zwei Vokale gesetzt, die als Silbenkerne andererseits in der Schreibung direkt aufeinandertreffen würden (z. B. in den Wörtern und ).

Das dritte große Prinzip ist das morphologische Prinzip. Dieses Prinzip besagt, dass morphologisch verwandte Stämme gleich repräsentiert werden, damit man die Verwandtschaftsbeziehungen sieht. Deshalb wird beispielsweise mit und nicht mit geschrieben, oder mit (da die Pluralform das Silbengelenk hat).

Neben den drei großen Prinzipien gibt es noch einige graphematische Tendenzen wie die Differenzierung homophoner Formen (vgl. vs. ), die etymologische Schreibung und die ästhetische Schreibung.

English as a Lingua Franca—the Good, the Bad, the Ugly

English is the native language of about 430 million people around the world, which makes English the third-biggest native language worldwide (only Chinese and Spanish have more native speakers). Estimates say that between 1 and 1.5 billion people worldwide speak English.[1] That means that roughly one in six people speak English either as a native or a second language. This is only rivalled by the total number of Chinese speakers around the world, which may be similar or even greater (with a higher percentage of native speakers).
However, no one ever mentions Chinese as a lingua franca. Why not? The most logical explanation for this fact is that most Chinese speakers live in the same country, while English speakers live all over the world, thus making it easier to communicate across borders.
So is English the natural choice for a worldwide lingua franca? And, more importantly, is it truly a lingua franca?
The natural choice, yes. The British Empire brought their language with them as they expanded and colonised countries. It was the language of the ‘masters’ in a lot of countries for centuries. It was one of the languages of the Allies in World War II spoken by more than one of the allied and, ultimately, winning countries. The USA as a rising global superpower after World War II further accelerated the growing dominance of English in areas such as international relations, diplomacy, science, business, aviation, entertainment, radio, and seafaring.[2]
The final rise of English as lingua franca began with the invention of the Internet as a worldwide communication network, though. The Internet was a result of the technological race between the USA and the USSR during the Cold War and was brought to life in the USA.[3]
Therefore, it comes as no surprise that English is the language that is most widely used on the Internet nowadays, even before Chinese, and far ahead of Spanish. Some 800 million users, that’s roughly 28.5% of all Internet users, communicate in English.[4] It is also the language of information technology.
The rise of English as a lingua franca seems to be a logical consequence of past events. But what about accessibility?
The English language is not exactly easy to learn. Word roots come from all over the place (English has mostly Germanic, Latinate, and Gaelic word roots), the relation between spelling and pronunciation seems arbitrary more often than not, and English tenses are complex and difficult for a lot of ESL students.
Another problem in this context is the existence of numerous non-standard varieties of English. Some of them differ so much from Standard English that they are hard to understand even for native speakers of one of the ‘standard’ variants.
So for about one billion of today’s English speakers, learning the world’s lingua franca likely took quite some effort. Roughly five in six people don’t speak the world’s lingua franca at all, and even for those who do, communication with other English speakers might be very difficult.
These facts bring up the question why we call English a ‘lingua franca’ (in ‘plain’ English as much as ‘free language’) at all. Is it really a free language in the sense of giving people the freedom to communicate with each other?
Yes and no. For those who do speak English with some proficiency, it allows communication across borders and with a large variety of people from all over the world and with different native languages. Pronunciation and accent problems are negated by written communication, e.g. via Internet. Most mistakes may make it harder but not impossible to understand the meaning so that even a basic knowledge of the language is often enough to express basic needs and hold simple conversations.
On the other hand, the accessibility bar is too high in order to call English a truly free language. A lot of people don’t have access to any means of learning English, and are thus barred from the advantages of a lingua franca. For others, the language is just too hard to learn so that they never reach a level of proficiency high enough to communicate with others in everyday situations, let alone in professional situations.
So yes, English is a lingua franca—but only for about one sixth of the world’s population.
Theresa Travelstead, January 25, 2015
(This was a paper I wrote for university; not yet graded.)

Phonologie, Teil 2: In Reih und Glied, ihr Silben!

Wie gestern schon angekündigt, kommt heute Teil zwei meiner Zusammenfassung zur Phonologie. Diesmal geht es um Silben, genauer gesagt der Silbenstruktur (und ihrem Skelett, dazu unten mehr).

Jede Silbe besteht strukturell aus einem Onset (Silbenanfangsrand) und einem Reim (der sich dann weiter aufgliedert in Nukleus und Koda (Silbenrand)). Der einzige Platz, der immer besetzt sein muss, ist der Nukleus, auch Silbenkern oder Silbengipfel genannt. Wenn eine Silbe eine leere Koda hat, ist es eine offene Silbe. Ist die Koda besetzt, nennt man die Silbe geschlossen.

Der Silbenbildung liegen im Deutschen zwei Prinzipien zugrunde: Die Sonoritätshirarchie und die Maximaler-Onset-Regel.

Die Sonoritätshirarchie besagt, dass der Sonoritätshöhepunkt im Nukleus liegt und der Onset eine steigende, die Koda eine fallende Sonorität aufweisen. Sprich: Wenn eine Silbe einen (oder mehrere) Vokal(e) hat, ist das immer der Nukleus. Alles davor steht im Onset, alles danach in der Koda. Sollte eine Silbe (z. B. durch Schwa-Tilgung) keinen Vokal mehr haben, übernimmt ein vokalisierter Konsonant (ein Sonorant, z. B. ein /n/ oder /l/) den Nukleus als Silbenkern.

Sonorität der verschiedenen Laute:

 ^ Vokale
 | Gleitlaute ([j])
 | Liquide ([l], [r], [ʀ])
 | Nasale ([m], [n], [ŋ])
 | Frikative
 | Plosive

Die Maximaler-Onset-Regel besagt, dass im Deutschen der Onset einer Silbe so groß wie möglich (unter Einhaltung der Sonoritätshirarchie) ist. Im Zweifelsfall wird eine vorangehende Silbe also offen sein, damit der Konsonant im Onset der Folgesilbe stehen kann. Die deutsche Sprache hat so gut wie nie einen leeren Onset (selbst bei Wörtern oder Silben, die mit Vokal anfangen, setzen wir obligatorisch einen Knacklaut ein, der zu den Konsonanten zählt).

Im Deutschen findet zwischen Nukleus und Koda in der Regel ein Längenausgleich statt. Wenn wir also eine prall gefüllte Koda haben, ist der Vokal im Nukleus kurz, d. h. ungespannt. Haben wir stattdessen eine offene Silbe, ist der Vokal lang, d. h. gespannt, oder ein Diphtong (Doppelvokal). Die Gewichtigkeit der einzelnen Silbenbestandteile wird anhand der Skelettschicht dargestellt. Ein langer Vokal erhält zwei “X”, während ein Konsonant, der als Silbengelenk agiert (also sowohl Koda wie auch Onset der Folgesilbe besetzt) nur ein “X” erhält. Auch Affrikaten werden nur durch ein “X” dargestellt, auch wenn sie mit zwei Lautzeichen transkribiert werden.

Beispiel: Essen

    ơ          ơ      (das Sigma steht für Silbe)
   /   \       /   \
 O    R  O    R
  |     /  \  |    /   \
  |   N K |   N  K
  |    |    \ /    |    |
 X  X   X   X  X
  |    |     |     |    |
[Ɂ   ɛ    s    ə   n]

Linguistik-Studium, und dann? Oder: "Studier doch was Anständiges!"

Ich habe am Sonntag eine Email eines Lesers bekommen, in der ich gefragt wurde, was man denn nach einem Linguistik-Studium so beruflich machen kann. Gerne greife ich die Frage hier auf.

Lieber Jan,

die Berufsfelder, in die man nach einem Linguistik-Studium einsteigen kann, sind zahlreich. Der erste Gedanke, den die meisten haben, ist vermutlich die Verlagsbranche. Gute Lektoren mit einem sicheren Gefühl für Sprache, Stil und Rechtschreibung sind gefragter denn je in unserer heutigen Zeit, da nicht nur Verlage Lektorendienste benötigen, sondern immer mehr Autoren direkt Lektoren beauftragen. Wer also schon immer viel gelesen hat, einen Blick für “gute” und “schlechte” Bücher hat und die Freiberuflichkeit nicht scheut, hat gute Chancen im derzeitigen Veröffentlichungsschlaraffenland.

Eine weitere Möglichkeit wäre ein anschließendes Masterstudium “Deutsch als Fremdsprache”, um anschließend unter die Sprachlehrer und freien Dozenten zu gehen. Mögliche Auftraggeber oder Arbeitgeber wären hier z. B. Volkshochschulen, Weiterbildungsinstitutionen, Sprachschulen, im In- und Ausland.

Auch Zeitungen suchen guten Nachwuchs. Ein abgeschlossenes Linguistik-Studium sollte zumindest den Einstieg in diese Branche erleichtern, auch wenn es nicht ganz leicht ist, als Journalist Fuß zu fassen.

Doch gute Deutschkenntnisse sind nicht nur in den klassischen Branchen gefragt. Im Prinzip stehen einem überall dort, wo stilsichere und saubere Texte verfasst / redigiert / lektoriert / korrigiert werden müssen, Türen offen. Ob in einem millionenschweren Unternehmen in der Marketingabteilung, als Redenschreiber in der Politik, im mittelständischen Unternehmen im Büro, im Übersetzungsbüro, in der Pressestelle eines NGOs, …

Mein Tipp: Teste schon vor und während des Studiums durch Praktika aus, welche Bereiche dich reizen würden und wo deine Talente liegen. Knüpf Kontakte, und nutze sie. Geisteswissenschaftler sind längst nicht so “uneinstellbar”, wie ihr Ruf suggeriert; man muss bloß wissen, wo man suchen muss 😉

Ich hoffe, diese Antwort hilft dir erst mal weiter. Ich selber arbeite übrigens als VHS-Dozentin und unterrichte Englisch, und habe davor jahrelang als freiberufliche Lektorin und Übersetzerin gearbeitet (nach einer Ausbildung zur kfm. Assistentin Fremdsprachen) — und jetzt studiere ich Linguistik, weil mich das Thema persönlich unheimlich reizt und ich mehr wissen will: über Sprache, Sprachgeschichte, Spracherwerb …

Liebe Grüße,
Theresa

Phonologie — Laute einer Sprache, vereinigt euch!

Im Gegensatz zur Phonetik befasst sich die Phonologie nur noch mit den Lauten, die in einer bestimmten Sprache vorkommen. Es geht nicht mehr darum, wo welcher Laut produziert wird, sondern eher, in welchem Verhältnis die Laute einer Sprache zueinander stehen und wie Silben aufgebaut sind (richtig, es erinnert ebenfalls an Strukturbäume … ich werde verfolgt …).

Wir unterhalten uns diesmal über Phoneme, Allophone, phonologische Prozesse, phonologische und phonetische Repräsentation, Silbengelenke, Silbenstrukturen …

Aber fangen wir vorne an. Ein Phonem ist die kleinste bedeutungsunterscheidende Einheit (wir erinnern uns an Morpheme, die die kleinste bedeutungstragende Einheit der Sprache sind). Was bedeutet das nun genau? Nehmen wir ein Beispiel, die beiden Wörter und . Sie unterscheiden sich nur durch die Laute [f] bzw. [b]. Beide Wörter haben eine unterschiedliche Bedeutung. Damit sind die Laute [f] und [b] bedeutungsunterscheidend, und Phoneme der deutschen Sprache.

Was ist mit [ç] und [x], den Endlauten in <mich> und <doch>? Können wir ein Minimalpaar wie oben finden (d. h. zwei Wörter, die sich nur durch diese Laute unterscheiden)? Nein, da die beiden Laute in der deutschen Sprache in sogenannter komplementärer Distribution vorkommen, d. h. sie kommen niemals in der gleichen Lautumgebung vor. [x] kommt nur nach hinteren und zentralen Vokalen vor, während [ç] nach Vorderzungenvokalen, Konsonanten oder im Morphemanlaut vorkommt. Damit sind die beiden Laute im Deutschen Allophone.

Auch das im Deutschen wird unterschiedlich realisiert. Diesmal hat die Realisierung aber nichts mit der Lautumgebung, sondern mit der Region in Deutschland (stark verallgemeinert) zu tun. Die Laute [r], [ʀ] und [ʁ] sind ebenfalls Allophone, allerdings kommen sie in freier Variation vor.

Was hat es nun mit den phonologischen Prozessen, der phonologischen und der phonetischen Repräsentation auf sich?

Im Deutschen gibt es eine Reihe von Ausspracheregeln, von denen einige Pflicht und andere optional sind. Die vielleicht bekannteste dieser Regeln ist die Auslautverhärtung. Ein stimmhafter Konsonant am Wortende wird immer stimmlos gesprochen. Die Regel für Auslautverhärtung liest sich wie folgt: [-son] -> [-sth]/_# (nicht-sonorante Laute werden am Wortende zu nicht-stimmhaften Lauten).

Beispiel: Das Wort sieht in der phonologischen Repräsentation (vor Anwendung phonologischer Regeln) so aus: /hund/. Dann folgt die Anwendung der Auslautverhärtung, und die phonetische Repräsentation (so, wie das Wort tatsächlich gesprochen wird) ist dann die folgende: [hunt].

Weitere obligatorische phonologische Regeln des Deutschen:

-> /g/-Tilgung: /g/ -> ø/[+nasal, +velar]_]ơ
-> regressive velare Nasalassimilation: /n/ -> [ŋ]/_[+velar, +plosiv]
-> Welchsel Ich-/Ach-Laut: /ç/ -> [x]/{[uː]; [ʊ]; [oː]; [ɔ]; [aː]; [a]}_

Daneben gibt es eine Reihe von optionalen phonologischen Regeln:

-> Schwa-Tilgung: /ə/ -> ø/X_{[+sonorant]; absoluter Auslaut}
-> Geminatenreduktion (Wegfall von doppelten gleichen Buchstaben im Silbengelenk)
-> Hinzufügen von Segmenten (Epenthese): ø -> B/X_Y
-> regressive Nasalassimilation (von rechts nach links) und progressive Nasalassimilation (von links nach rechts) (allgemein)
-> Spirantisierung
-> R-Vokalisierung
-> Aspiration von Plosiven

Um die Silbenstruktur kümmere ich mich im nächsten Post, da dieser bereits ziemlich lang und umfangreich ist. Außerdem ist es spät, ich muss morgen ganz früh zur Uni, und ich bin müde 😉