IX Forum Kultury Słowa „Mówi się, czyli o wymowie i wymowności Polaków” (sprawozdanie)
W dniach 9–11 października 2013 r. odbyło się w Szczecinie IX Forum Kultury Słowa, zorganizowane przez Radę Języka Polskiego przy Prezydium Polskiej Akademii Nauk, Uniwersytet Szczeciński oraz Fundację Języka Polskiego. Konferencja została sfinansowana przez Ministerstwo Nauki i Szkolnictwa Wyższego, Polską Akademię Nauk oraz Narodowe Centrum Kultury. Do udziału w trzydniowych obradach zaproszono nie tylko językoznawców, lecz także przedstawicieli innych dziedzin wiedzy, w których język mówiony odgrywa szczególną rolę, m.in. prawników, aktorów, logopedów i nauczycieli emisji głosu.
Obrady rozpoczęło wystąpienie Andrzeja Markowskiego, poświęcone roli i statusowi normy w zakresie wymowy. Normę fonetyczną referent zestawił z normą w innych podsystemach języka: fleksji, składni, słowotwórstwie, leksyce i frazeologii, rozpatrując ją w czterech aspektach: dwupoziomowości, wariantywności, zmienności oraz uświadomienia społecznego. Swoje analizy autor poparł wieloma przykładami, pokazującymi różne zwyczaje wymawianiowe współczesnych Polaków. Zdaniem Andrzeja Markowskiego dwupoziomowość normy językowej w zakresie wymowy jest wyjątkowo wyrazista – świadczą o tym m.in. liczne przykłady elementów należących do jednego z poziomów normy, a nieaprobowanych na poziomie drugim. Językoznawca zauważył również, że normę fonetyczną na tle innych norm cząstkowych wyróżnia duża wariantywność. Spowodowana jest ona wieloma czynnikami: zróżnicowaniem geograficznym, społecznym, pokoleniowym, a także tempem mówienia. Według prelegenta norma fonetyczna w porównaniu z innymi normami jest też bardzo stabilna – niewiele można wskazać innowacji fonetycznych, które weszły do normy wymawianiowej w ostatnich dziesięcioleciach. Norma ta jest wreszcie uświadamiana społecznie. Jak zauważył mówca, na podstawie pytań do poradni językowych i audycji radiowych można stwierdzić, że kwestie związane z wymową żywo interesują świadomych użytkowników języka polskiego, którzy opowiadają się często za konserwatyzmem w zakresie normy wymawianiowej.
W dyskusji zastanawiano się nad wymienionymi przez Andrzeja Markowskiego cechami normy fonetycznej. Nie wszyscy zgodzili się z tezą, że norma w zakresie wymowy jest wyrazista, stabilna i uświadamiana społecznie. Zwracano też uwagę na pewne problemy obserwowane w zwyczajach wymawianiowych wielu osób, np. coraz szybsze tempo wypowiedzi czy niedbałą artykulację. Wielu dyskutantów wspomniało również o postępującym zaniku samogłosek nosowych, prognozującym, że w przyszłości samogłoski te w ogóle przestaną być wymawiane. Niektórzy spostrzegli, iż zmieniające się zwyczaje wymawianiowe każą na nowo przyjrzeć się niektórym rozstrzygnięciom i wprowadzić pewne zmiany w ustaleniach normy fonetycznej.
Drugi referat, wygłoszony przez Bogusława Dunaja, dotyczył kodyfikacji normy fonetycznej. Prelegent omówił podziały na style wymowy, wyróżniane według różnych kryteriów: sytuacyjnych, jak również dotyczących sposobu wypowiadania tekstu (tempa mówienia oraz stopnia staranności artykulacyjnej). Czynnik sytuacyjny motywuje wyodrębnienie oficjalnej i nieoficjalnej sytuacji komunikacyjnej. Na tej podstawie językoznawca wyróżnił dwa podstawowe style wymowy: staranny (wzorcowy) i potoczny. Tempo mówienia wyznacza z kolei podział na style allegro i lento. Zagadnieniem, którym zajął się referent, były też kryteria poprawności ortofonicznej. Bogusław Dunaj zaproponował, aby w ustaleniach kodyfikacyjnych współczesnej wymowy literackiej uwzględnić (jako podstawowe) trzy kryteria: autorytetu kulturalnego (według autora – najistotniejsze), uzualne i tradycji językowej. Następnie prelegent odniósł się do relacji między normą wymawianiową a uzusem. Zaznaczył, że duży wpływ na polszczyznę mówioną miały przeobrażenia społeczne, które spowodowały gwałtowny wzrost liczby użytkowników języka literackiego. W opinii referenta niepewność kompetencyjna wielu osób prowadzi do rozchwiania wymowy. Decydują o tym z jednej strony pozostałości realizacji regionalnych, z drugiej zaś popieranie niepewności wymawianiowych pismem, czego rezultatem bywa wymowa literowa. Owo rozchwianie wymowy w uzusie prowadzi zdaniem Bogusława Dunaja do wniosku, że kodyfikacja w tym zakresie jest potrzebna. Autor zwrócił uwagę na potrzebę prowadzenia dalszych badań nurtu wymawianiowego wśród reprezentacyjnych grup użytkowników polszczyzny literackiej.
Referat Bogusława Dunaja skłonił obradujących do dyskusji nad potrzebą kodyfikacji normy fonetycznej. Jerzy Podracki zauważył, że brak jednoznacznych rozstrzygnięć dotyczących wymowy odczuwają np. nauczyciele oceniający ustną część egzaminu maturalnego. Ważne jest zatem przygotowanie precyzyjnych wskazówek poprawnościowych, które umożliwiłyby egzaminatorom jednoznaczną ocenę. Grażyna Matyszkiewicz wyraziła opinię, że badania normy fonetycznej powinny być prowadzone na nowym materiale.
Kolejna referentka, Justyna Garczyńska, podjęła próbę określenia normy wymowy polskich samogłosek ustnych. Celem wystąpienia była charakterystyka tych kontekstów fonetycznych, które powodują istotne statystycznie i regularne modyfikacje barwy polskich samogłosek ustnych. Jak zaznaczyła prelegentka, z punktu widzenia fonetyki interesujący jest stosunek percepcji słuchowej do rzeczywistego brzmienia głosek. Jest bowiem wiele czynników, które wpływają na różnice w zapisach dokonanych na podstawie odbioru słuchowego tego samego tekstu, wypowiedzianego przez kilka osób. Uwzględnia się nie tylko takie czynniki, jak przypadkowa niedyspozycja zapisującego, przesłyszenie się czy autosugestia, lecz także samą strukturę akustyczną samogłosek. Autorka podkreśliła, że dla rozpoznawania samogłosek najistotniejsze są częstotliwości dwóch pierwszych formantów F1 i F2. W przeprowadzonych przez siebie badaniach skupiła się więc na pokazaniu, w jaki sposób częstotliwość tych dwóch formantów wpływa na cechy artykulacyjne samogłosek. Referentka zwróciła też uwagę na trudności w ustaleniu cech samogłosek ustnych. Słuchającemu może się wydawać, że ta sama samogłoska wypowiedziana kilkukrotnie za każdym razem brzmi tak samo. Pomiary częstotliwości dwóch pierwszych formantów wykazują jednak pewien rozrzut wartości w kolejnych powtórzeniach danego wyrazu. Nawet identyczne słuchowo samogłoski mogą się zatem różnić wartością akustyczną. W dalszej części referatu Justyna Garczyńska – na podstawie własnych szczegółowych badań – pokazała zależności między częstotliwościami obu formantów i cechami artykulacyjnymi samogłosek.
Wielu dyskutantów zaciekawiły wyniki badań nad polskimi samogłoskami ustnymi. Podkreślano, że bez dokładnych pomiarów akustycznych nie sposób dostrzec różnic w realizacji identycznych słuchowo samogłosek. W związku z tym zauważono, że w odniesieniu do wyników badań autorki warto rozważyć zastąpienie wyrażenia norma sformułowaniem mówiącym o tendencjach w zakresie realizacji samogłosek ustnych. Walery Pisarek zwrócił uwagę na to, że idiolekt każdego człowieka odznacza się swoistym systemem głoskowym, w szczególności samogłoskowym. Sposób wymawiania określonej samogłoski wpływa na artykulację pozostałych elementów systemu samogłoskowego. Zdaniem językoznawcy warto tę zależność uwzględnić w badaniach nad strukturą akustyczną samogłosek ustnych.
Następny referent, Kazimierz Sikora, zajął się współczesną normą regionalną w zakresie wymowy. Autor przypomniał, że normę regionalną wyróżnia się jako swoistą część normy użytkowej. Podkreślił, że pojęcie normy znajduje zastosowanie nie tylko wobec regionalnych odmian polszczyzny (dialektów kulturalnych), lecz także wobec gwar ludowych i kontynuujących je interdialektów oraz tzw. języków regionalnych, nazywanych często etnolektami. Z badań i obserwacji autora wynika, że tradycyjnej normie gwarowej można przypisać takie cechy, jak: lokalność (norma ta znajduje zastosowanie na niewielkim obszarze), konfrontacyjność, nierestrykcyjność i labilność (płynność). Jak wyjaśnił prelegent, przez konfrontacyjność należy rozumieć pochodność świadomości językowej, wyczulonej na różnice i odrębności w mowie sąsiadów i przybyszów z miasta. Świadomość ta wyraża się np. w tworzeniu przezwisk nawiązujących do charakterystycznego sposobu wymowy danej społeczności. Kazimierz Sikora zwrócił uwagę na to, że można dziś obserwować postępujący proces zanikania gwar, jak również zacierania się różnic między nimi, prowadzącego do powstawania interdialektów. Według referenta silne są też tendencje do wyzbywania się gwary. Z drugiej strony niektóre środowiska odczuwają potrzebę przeciwstawienia swojego języka polszczyźnie ogólnej – np. w etnolekcie śląskim przejawia się to w nadużywaniu zapożyczeń niemieckich. Podsumowując swoje wystąpienie, Kazimierz Sikora stwierdził, że dominacja polszczyzny ogólnej prawdopodobnie nie dopuści do autonomizacji regionalnych wariantów wymowy. Warunki sprzyjające temu procesowi istnieją zdaniem referenta jedynie na Śląsku i na Podhalu.
W dyskusji skupiono się na szczegółowych zagadnieniach poruszonych przez prelegenta. Jolanta Tambor zaznaczyła, że według niej nadużywanie germanizmów nie jest ogólną cechą użytkowników etnolektu śląskiego. Z badań językoznawczyni wynika, że germanizmy wycofują się z mowy osób na co dzień posługujących się śląszczyzną. Walery Pisarek odniósł się z kolei do kwestii określeń grup etnicznych nawiązujących do rodzaju wymowy – zauważył, że nie ograniczają się one jedynie do przezwisk – stają się też czasem oficjalnymi nazwami społeczności etnicznych (np. nazwy „Łemko” czy „Bojko”).
Izabela Winiarska-Górska wygłosiła referat zatytułowany „Wymowa regionalna a norma języka literackiego w dawnej polszczyźnie”. Przedmiotem zainteresowania badaczki była zależność między dawnymi regionalizmami fonetycznymi a kształtującą się normą języka literackiego. Referentka przypomniała, że zagadnienie relacji między wymową regionalną a polszczyzną literacką zdominował spór o pochodzenie polskiego języka literackiego, trwający od lat 80. XIX wieku do lat 60. XX wieku. W wyjaśnianiu dialektalnej genezy polszczyzny literackiej posługiwano się przede wszystkim metodą filologiczną. Polegała ona na konfrontowaniu tekstów powstałych w podobnym miejscu i w zbliżonym czasie, a następnie ustalaniu repertuaru cech uznawanych za regionalne. Izabela Winiarska pokazała przykład zastosowania metody filologicznej do tekstu „Kazań świętokrzyskich”. Zauważyła, że analiza tekstu kazań pozwala wskazać cechy, które uważano dawniej za szczególnie ważne dla poszczególnych regionów. Cechy te przejawiają się jako relikty także w tekstach późniejszych i stanowią stały repertuar cech regionalnych uwzględnianych w badaniach tekstów dawnych, również późniejszych niż średniowieczne. Odwołując się do poglądów Tadeusza Lewaszkiewicza, prelegentka zwróciła uwagę na potrzebę nowego przyjrzenia się genezie polskiego języka literackiego, z uwzględnieniem wpływu łaciny i greki. Przywołała ponadto stanowisko Ireny Bajerowej, zgodnie z którym najważniejszą tendencją w rozwoju polskiego języka literackiego jest tendencja do jego normalizacji (polegającej m.in. na usuwaniu dubletów lub nadawaniu im nowej funkcji).
Odnosząc się do wystąpienia Izabeli Winiarskiej, Bogusław Dunaj stwierdził, że najświeższe badania rzucają nowe światło na kształtowanie się polszczyzny literackiej. Zdaniem językoznawcy szczegółowe rozstrzygnięcia przyjęte w starszych pracach można dziś uznać za dyskusyjne. Dowodzi to, że w badaniach historycznojęzykowych potrzebne jest prowadzenie dalszych prac, które pogłębiają i precyzują wcześniejszą wiedzę. Walery Pisarek zauważył, że w dociekaniach dotyczących rozwoju języka literackiego (w tym także właściwości wymowy) warto uwzględnić również wpływ etnolektu śląskiego.
W popołudniowej części pierwszego dnia obrad forowicze mieli okazję zobaczyć pokaz przygotowany przez Wojciecha Malajkata, aktora i profesora Akademii Teatralnej w Warszawie, oraz dwojga jego studentów: Katarzyny Ucherskiej i Aleksandra Sosińskiego. Wystąpienie, zatytułowane „Próba czytana”, ukazywało wiele sposobów wyrażania treści i przekazywania emocji podczas odtwarzania roli scenicznej. Młodzi aktorzy przedstawili różne, często skrajne interpretacje tego samego fragmentu tekstu, wydobywające z niego zaskakujące właściwości. Wystąpienie spotkało się z dużym uznaniem słuchaczy – wielokrotnie nawiązywano do niego w późniejszej dyskusji panelowej.
Tematem panelu, zorganizowanego w ostatniej części środowych obrad, była wymowa sceniczna. Dyskusję poprowadził Robert Cieślak, a wzięli w niej udział reżyser Anna Augustynowicz, nauczyciel wymowy scenicznej Grażyna Matyszkiewicz oraz aktor Jerzy Radziwiłowicz. Punktem wyjścia dyskusji było postawione przez prowadzącego pytanie o to, czy możliwe jest ustalenie szczegółowych zasad tworzących normę sceniczną. Przedmiotem rozważań stał się również swoisty sposób funkcjonowania słowa mówionego na scenie. Zastanawiano się nad performatywną funkcją wypowiedzi scenicznych, a także nad szczególnymi właściwościami tekstów ujawniającymi się dzięki umiejętnej grze aktorskiej.
Jerzy Radziwiłowicz wyraził przekonanie, że posługiwanie się słowem mówionym daje aktorowi nieograniczone możliwości przekazu. Ich wykorzystanie zależy od jego umiejętności i predyspozycji. Szczególnie ciekawa jest sytuacja, w której tworzenie nowego przedstawienia polega na deformacji spektaklu wyjściowego, wymagającej niekiedy także deformacji mowy. Mówca podkreślił również, że aby zrozumieć, na czym polega funkcja słowa na scenie, należy mieć na uwadze jedną z podstawowych właściwości teatru. Teatr mianowicie nie ukazuje rzeczywistości codziennej, lecz świat sztuczny, stworzony przez grę aktora.
Grażyna Matyszkiewicz zauważyła, że o ile elementy świata rzeczywistego możemy oceniać w kategoriach prawdy i fałszu, o tyle w odniesieniu do bytu tworzonego w teatrze właściwsze wydaje się określenie: wiarygodny. Właśnie wiarygodność jest cechą, której oczekuje się od świata ukazywanego na scenie i od gry aktora. Uczestniczenie w rzeczywistości wykreowanej w teatrze wymaga – zarówno od widza, jak i od aktorów – zgody na pewną konwencję. Ważne jest, aby widz miał świadomość, że pewne niekonwencjonalne użycia języka są zabiegiem celowym, zaplanowanym.
Anna Augustynowicz podkreśliła, że praca nad tekstem podczas przygotowywania spektaklu wymaga obejrzenia wykorzystywanego tekstu w wielu aspektach. Umiejętne i skuteczne posługiwanie się tekstem wymaga uprzednio jego dokładnego poznania, przeanalizowania pod względem muzyczności, harmonii i rytmiki. Na sposób interpretacji i odtwarzania tekstu (a zatem na efekt widoczny na scenie) wpływa wiele czynników, m.in. pochodzenie aktora, jego usposobienie i inne cechy indywidualne. Anna Augustynowicz spostrzegła też, że szczególne trudności wiążą się z interpretacją utworów przetłumaczonych z innego języka, wymagające przedostania się przez filtr przekładu. Każdy język charakteryzuje się bowiem odrębnymi, nieprzekładalnymi właściwościami, swoistą melodycznością, która również wpływa na sposób odbioru tekstu.
Wypowiedzi trojga panelistów skłoniły słuchaczy do wielu pytań i uwag. Andrzej Markowski wyraził wątpliwość co do ujmowania rzeczywistości przedstawianej w teatrze w kategorii prawdopodobieństwa. Rzeczywistość ta jest pewną kreacją, widz oczekuje zaś, aby kreacja ta była spójna wewnętrznie, nie zaś prawdopodobna. Jerzy Radziwiłowicz, komentując tę wypowiedź, zauważył, że w odniesieniu do teatru zwykliśmy rozumieć kategorię prawdziwości w inny sposób, niż się zazwyczaj przyjmuje. Chociaż jesteśmy świadomi obcowania z przekazem sztucznym, dalekim od rzeczywistości (np. z mową wierszowaną), nie odrzucamy takiego przekazu jako nieprawdziwego. Grażyna Matyszkiewicz dodała, że podobne uwagi dotyczą jeszcze innych zabiegów stosowanych na scenie, np. nienaturalnie głośnego mówienia, które nie tylko nie budzi podejrzliwości widza, lecz także sprzyja nawet jego zaangażowaniu.
Profesor Jerzy Bralczyk nawiązał do wcześniejszych wypowiedzi gości panelu, którzy zwracali uwagę na to, że teatr daje możliwość nietypowego posługiwania się językiem mówionym. Zapytał, na czym może polegać niekonwencjonalne użycie słowa na scenie – czy zdarza się np. naruszenie jego konstrukcji fonetycznej po to, aby wydobyć z niego pewne szczególne właściwości. Jerzy Radziwiłowicz przyznał, że odtwórca roli często posuwa się do dekonstrukcji słowa, co pozwala osiągnąć nieoczekiwany skutek. Przykładem może być silniejsze i przedłużone akcentowanie wyrazów niesamodzielnych znaczeniowo – niezgodne z powszechnym zwyczajem językowym, ale na scenie dające ciekawy, zaskakujący efekt.
Wielu dyskutantów pytało o to, jaka jest granica naruszania normy językowej przez aktora. Zauważono, że niekiedy zachodzi konflikt między wiarygodnością postaci a poprawnością językową. Zwrócono też uwagę na to, że niektóre rażące naruszenia normy mogą się kłócić z oczekiwaniami odbiorów, traktujących mowę słyszaną ze sceny jako wzorcową. Uczestnicy panelu nie zgodzili się z tym zarzutem. Przekonywali, że łamanie reguł języka jest często wręcz konieczne dla uwiarygodnienia odtwarzanej postaci. Istotne jest jedynie to, aby wszelkie naruszenia normy były działaniem z góry zaplanowanym, świadomym, nie zaś wynikającym z niewiedzy twórców.
W dyskusji dostrzeżono również, że niekiedy problemem dla współczesnych twórców (reżysera, aktorów) może być wiarygodne przedstawianie tekstów dawnych. Tak, aby były zrozumiałe dla dzisiejszego widza, ale jednocześnie dobrze oddawały dawne realia. Jerzy Radziwiłowicz zauważył, że odtwarzanie takich tekstów nie powinno być próbą wiernego naśladowania ich właściwości językowych. Osiągnięcie takiego celu jest niemożliwe, należy zatem znaleźć inny sposób przybliżenia słuchaczom dawnego języka i odtworzenia logiki wypowiedzi. Skutecznym środkiem interpretacji tekstów dawnych jest często przejaskrawiony, przesadny sposób mówienia. Pewna wypracowana sztuczność wypowiedzi, czyli przesadne artykułowanie i akcentowanie, może być przydatnym narzędziem gry aktorskiej, przybliżającym widzowi logiczną strukturę zdania.
W zakończeniu dyskusji próbowano odpowiedzieć na pytanie o normę sceniczną. Zastanawiano się, czy potrzebne jest ustalenie wzorca wymowy scenicznej. Profesor Matyszkiewicz wyraziła przekonanie, że norma w zakresie wymowy na scenie jest potrzebna. W teatrze niezwykle często się ją narusza, nie podważa to jednak jej przydatności. Według Grażyny Matyszkiewicz przekraczanie normy i łamanie jej prawideł jest naturalne dla języka scenicznego. Norma nie może ograniczać działań artysty, jest jednak niezbędna jako punkt odniesienia.
Pierwszy referat drugiego dnia obrad został przedstawiony w dwugłosie – wygłosili go Wiesław Przyczyna i Aneta Załazińska. Wystąpienie poświęcone było paralingwistycznym aspektom oficjalnych wypowiedzi księży. Przez cechy paralingwistyczne autorzy rozumieją przede wszystkim właściwości głosu, jak również wszelkie zjawiska wokalne ujawniające się w trakcie mówienia. Wielu badaczy wyróżnia pięć zasadniczych cech głosu: siłę głosu (głośność), poziom głosu (jego wysokość), tempo mówienia (szybkość), płynność, a także jakość głosu. Prelegenci skupili się na tych właśnie cechach – ich ocena w przytaczanych wypowiedziach pozwoliła im wyróżnić różne style wokalne. Zadaniem referatu było pokazanie, jaki jest wpływ sposobu mówienia na odbiór kazania i ocenę kaznodziei. Na przykładzie konkretnych kazań autorzy pokazali różne sposoby ich wygłaszania: styl autorytarny, styl bierny oraz styl partnerski. Referenci zwrócili również uwagę na to, że niekiedy styl mówienia może być niespójny z przekazywaną treścią.
W dyskusji Anna Dąbrowska zapytała o dobór stylu wokalnego do celu kazania. Stanisław Czepita podkreślił, iż wybór określonego stylu zależy w dużym stopniu od typu odbiorców. Katarzyna Kłosińska zauważyła, że wymienione przez autorów cechy wygłaszanych kazań można uznać za ogólne cechy wystąpień publicznych. Poprosiła referentów o wskazanie, które z tych właściwości są charakterystyczne dla języka kazań, a które należy uznać za drugorzędne.
Następny referat również został wygłoszony w duecie. Przedstawili go mecenasowie Marek Mikołajczyk i Roman Ossowski. Przedmiotem wystąpienia był język prawniczy, czyli odmiana języka, którą posługują się praktycy i teoretycy prawa. Jako pierwszy zabrał głos Marek Mikołajczyk. Zaczął od stwierdzenia, że przyszli prawnicy nie są uczeni poprawnego i sprawnego mówienia – na studiach prawniczych nie ma obowiązkowych zajęć retoryki czy erystyki. Utrudnia to prawnikom posługiwanie się staranną polszczyzną. Referent podkreślił też, że na sposób formułowania wypowiedzi w języku prawniczym narzucone są pewne ograniczenia. O tym, kiedy należy zabrać głos, a także o formie wypowiedzi decydują ściśle określone zasady (np. niektóre wypowiedzi mogą mieć jedynie formę pytań). Z góry wyznaczone są ponadto cel wypowiedzi oraz rola przemawiającego i okoliczności wygłoszenia mowy. Utrudnieniem dla prawników jest również to, że często muszą zabrać głos bez uprzedniego przygotowania, dostosowując swoją wypowiedź do bieżącej sytuacji. Na koniec mecenas zwrócił się do środowiska akademickiego z apelem o to, aby wsparło prawników w ich edukacji – zdaniem mówcy program studiów prawniczych powinien się wzbogacić o przedmioty dotyczące zasad poprawnej i ładnej wymowy.
Wypowiedź drugiego z referentów skupiała się na wymowności prawników, rozumianej jako sztuka krasomówcza. Roman Ossowski zwrócił uwagę na ograniczenia zakłócające staranność wymowy prawników: pośpiech, zbyt duża liczba spraw do rozpatrzenia, tendencja do szybkiej komunikacji czy postępująca informatyzacja. Negatywny wpływ na język prawników ma też słownictwo tekstów internetowych. Wszystkie te czynniki przyczyniają się do zubożenia języka prawniczego. Mecenas wyraził przekonanie, że mimo tak niesprzyjających warunków warto zabiegać o podtrzymywanie kultury języka prawniczego. Tym bardziej że prawnicy tworzą grupę, dla której mowa jest instrumentem wykonywanego zawodu. O sukcesie zawodowym prawnika decydują jego wiedza i kompetencje językowe. Jak zauważył Roman Ossowski, mówca powinien zadbać o to, aby jego wypowiedzi były słyszalne, zrozumiałe i słuchane. Niezwykle istotne są przy tym takie elementy, jak właściwy dobór słów, mowa ciała, odpowiedni akcent, intonacja, a także umiejętnie zastosowane chwyty retoryczne. Mecenas, podobnie jak jego przedmówca, podkreślił, że w programach nauczania na studiach uniwersyteckich należy wprowadzić obowiązkowe zajęcia z mowy prawniczej z silnym naciskiem na umiejętność sztuki prowadzenia sporów oraz pięknego i estetycznego mówienia.
Stanisław Czepita, odnosząc się do wystąpienia referentów, spostrzegł, że dużym ograniczeniem dla mowy prawniczej jest jej silne powiązanie z językiem pisanym. Wiele wypowiedzi prawniczych polega na nieustannym odwoływaniu się do tekstu pisanego. Tadeusz Piotrkowski zapytał, czy można wskazać cechy suprasegmentalne, które są swoiste dla mowy prawników. Zwrócono również uwagę na liczne błędy spotykane w wypowiedziach prawników i zgodzono się z prelegentami, że potrzebne jest wsparcie edukacji prawników w zakresie poprawnej i starannej wymowy.
Następny referat, zatytułowany „Język biznesu w przemówieniach polityków”, wygłosił Marek Kochan. Autor – na podstawie przemówień sześciu premierów – rozważał, jak w wypowiedziach polityków używane są sformułowania biznesowe, typowe dla języka dużych korporacji. Przedmiotem zainteresowania prelegenta były przede wszystkim wyrażenia, które we wskazanych przemówieniach sejmowych funkcjonują w taki sposób, jak w języku biznesu (nie zaś te, które pojawiały się w kontekstach typowych dla języka polityki). Jak zauważył referent, sformułowania te niosą ze sobą zwykle swoisty sposób oglądu rzeczywistości, przez co stają się często narzędziem perswazji. Politycy chętnie posługują się np. takimi określeniami typowymi dla języka biznesu, jak systemy, procesy, inwestycje, zasoby, potencjał, projekty, konkurencja, rozwój, wzrost czy sukces. Podsumowując, Marek Kochan stwierdził, że występowanie określeń biznesowych w tekście exposé jest czymś więcej niż stylizacją, mającą uatrakcyjnić wizerunek mówcy. Posługiwanie się takimi sformułowaniami jest także wyrazem określonego myślenia o rzeczywistości (traktowania państwa jako swojego rodzaju przedsiębiorstwa).
Do wystąpienia Marka Kochana odniósł się Andrzej Blikle. Dyskutant przekonywał, że niektóre z przytoczonych określeń – choć mogą się wydawać niestosowne, śmieszne – w środowisku biznesowym są przydatne. Dotyczy to np. takich określeń, jak „zarządzanie czasem” czy „proces sprzedaży”, które w języku biznesu funkcjonują w innym znaczeniu niż to, które zwykło się im przypisywać. Kazimierz Sikora zauważył, że tradycyjnie w przemówieniach polityków pojawiała się figura myśli ojciec – rodzina, która – jak wynika z referatu Marka Kochana – zaczyna ustępować miejsca figurze prezes – firma. Andrzej Markowski podkreślił, że w wypadku przytoczonych przez referenta przykładów warto przeprowadzić wyraźne rozróżnienie. Jedną grupę tworzą sformułowania biznesowe używane w tekstach dotyczących spraw gospodarczych (ich użycie jest zdaniem dyskutanta naturalne i nie powinno budzić zastrzeżeń). W drugiej, osobnej grupie znajdą się zaś określenia, które pojawiają się w wypowiedziach niezwiązanych z biznesem – one właśnie zasługują na szczególną uwagę.
Popołudniowa część czwartkowych obrad rozpoczęła się wystąpieniem Anety Załazińskiej, zatytułowanym „Gesty jako akcenty mowy”. Przedmiotem referatu były gesty potraktowane jako odrębna kategoria zachowań niewerbalnych. Autorka skupiła się na wybranej grupie gestów: tych, których znaczenie wiąże się ściśle ze znaczeniem wyrażanym przez towarzyszące im słowa. Przywołane przez prelegentkę prace różnych badaczy pokazują, że gesty są istotne z punktu widzenia zarówno odbiorcy, jak i nadawcy. Sposób wykorzystania gestów i ich intensywność są jednak zróżnicowane u różnych osób i zależą od wielu czynników (indywidualnych, społecznych i kognitywnych). Nawiązując do tytułu referatu, Aneta Załazińska wyjaśniła, że rozumienie gestów jako akcentów mowy wskazuje na ich szczególną funkcję w tworzeniu komunikatu. Gesty towarzyszące słowom podkreślają bowiem pewne elementy znaczenia. Ową funkcję gestów można wyjaśnić przez odwołanie się do używanego w językoznawstwie kognitywnym pojęcia „profilowania znaczeń”, czyli uwypuklania przez mówiących tych aspektów znaczenia, które są dla nich istotne. Z badań przywołanych przez Anetę Załazińską wynika, że znaczenia wyrażone w gestach odgrywają istotną rolę w procesie rozumienia wypowiedzi.
Marek Średniawa, odnosząc się do wypowiedzi referentki, zauważył, że gest jest silnie osadzony w określonym kontekście – kulturowym, historycznym bądź cywilizacyjnym. Na przykład pewne gesty, które w kulturze europejskiej mają zabarwienie pozytywne, w innych kulturach mogą być odebranie negatywnie, co wiąże się z ryzykiem nieporozumienia. Grażyna Matyszkiewicz zwróciła uwagę na to, że gesty pełnią różne funkcje: gest może ilustrować, uwypuklać znaczenie słowa, może być również nośnikiem emocji mówiącego. Niektórzy dyskutanci spostrzegli ponadto, że niekiedy werbalne i niewerbalne sposoby przekazywania informacji podczas jednej wypowiedzi mogą być ze sobą niezgodne, co także może nie sprzyjać porozumieniu.
Drugi dzień obrad zakończyło wystąpienie Bogusława Bednarka, zatytułowane „Oracja o cechach oracji”. W odróżnieniu od poprzednich wystąpień nie był to referat, lecz – jak zapowiedział autor – oracja zretoryzowana. Mówca zaczął swoją wypowiedź od podkreślenia różnicy między elokwencją a retoryką. Elokwencja polega na sprawnym, efektownym wypowiadaniu się, nie każdego jednak, kto jest elokwentny, można nazwać retorem. O wypowiedzi zretoryzowanej można mówić jedynie wówczas, gdy elokwencji towarzyszy użycie arsenału środków zaczerpniętych z retoryki. Jak podkreślił Bogusław Bednarek, system owych środków został skodyfikowany już w starożytności i przez setki lat był czytelny dla ludzi z wykształceniem humanistycznym. Zaprezentowana mowa była rodzajem stylizowanej, archaizowanej oracji w dawnym stylu. Szczególnie akcentowanym i wyraźnym jej elementem był motyw laudacyjny (pochwalny). Ku zaciekawieniu słuchaczy przedmiotem laudacji autor uczynił trwające obrady Forum. Bogusław Bednarek postanowił przy tym wykorzystać tradycyjne chwyty retoryczne, użyte niekiedy z lekkim zabarwieniem ludycznym.
Przemówienie Bogusława Bednarka spotkało się z żywym odbiorem uczestników Forum. Jedni podkreślali liczne walory retoryczne wystąpienia, inni zaś wskazywali, że konwencja pochwalna jest przez dzisiejszych odbiorców odbierana z podejrzliwością, jako nienaturalna i niezgodna z przyjętym zwyczajem językowym. Andrzej Markowski wyraził przekonanie, że tego typu chwyty retoryczne (zwłaszcza hiperbola) są już dzisiaj nieprzydatne i budzą wyłącznie reakcje humorystyczne. Z tym stwierdzeniem nie zgodził się Jerzy Bralczyk. W jego opinii na stosowanie przesadni pozwala niekiedy pewien wymiar półironiczny, jak również rodzaj satysfakcji estetycznej, którą mówca może podzielać ze słuchaczami i która może go zachęcać do dalszego używania takich chwytów. Według Marka Kochana warto się zastanowić, dlaczego przyjęta w czasach starożytnych konwencja mowy pochwalnej dziś już zanikła. Zdaniem dyskutanta zanik kultury chwalenia można uznać za typowy dla naszych czasów problem społeczny.
Po zakończeniu czwartkowych obrad uczestnicy Forum mieli okazję obejrzeć wystąpienia finalistów Ogólnopolskiego Konkursu Oratorskiego „Mistrz perswazji”. Organizatorami konkursu byli: Zespół Kultury Żywego Słowa Rady Języka Polskiego, Narodowe Centrum Kultury oraz Wyższa Szkoła Humanistyczna TWP w Szczecinie. Konkurs został poprowadzony przez aktora Konrada Pawickiego, w jury zasiedli natomiast: Ewa Kołodziejek, Jerzy Bralczyk, Wiesław Przyczyna, Tadeusz Zgółka, Barbara Sobczak, Aneta Załazińska i Jerzy Radziwiłowicz. Każdy z uczestników wygłosił około pięciominutową mowę inspirowaną słowami Antoine’a Saint-Exupéry’ego: „Bądź silniejszy, a będziesz miał rację”. Zwycięzcy konkursu otrzymali nagrody pieniężne ufundowane przez Szczecińską Energetykę Cieplną.
Dużym zainteresowaniem uczestników IX Forum Kultury Słowa cieszyły się również warsztaty, które odbywały się przez pierwsze dwa dni obrad. Bożena Targosz prowadziła zajęcia z czytania tekstu informacyjnego, warsztaty Magdaleny Majdak poświęcone były emisji głosu, Krystyna Maksymowicz poprowadziła lekcję twórczego czytania, zajęcia warsztatowe przygotowane przez Agnieszkę Kunikowską dotyczyły natomiast sztuki dubbingu.
Ostatni dzień obrad rozpoczął referat Jolanty Panasiuk: „Gdzie w mózgu mieszka słowo? Filogeneza a ontogeneza języka”. Badaczka przedstawiła historię kształtowania się poglądów naukowych na temat mózgowej organizacji mowy. Zagadnienie to interesowało uczonych od czasów starożytnych. Najważniejsze teorie mają jednak swój początek w II wieku (m.in. w badaniach Gallena). Uznano wówczas, że mózg dzieli się na pewne obszary, z których każdy mieści inną sprawność (np. wyobrażenia, myślenie, pamięć). Ten sposób postrzegania mózgowej organizacji wyższych czynności poznawczych przetrwał do dziś w postaci różnych koncepcji. Jedną z popularniejszych była teoria Franza Galla (tzw. frenologia). Według niej w mózgu mieszczą się ośrodki poszczególnych czynności psychicznych, przy czym odpowiednie struktury mózgowe można rozwijać przez usprawnianie przypisanych im właściwości. Istotny wkład w badania nad mózgową organizacją mowy wnieśli też Paul Broca i Carl Wernicke (początki afazjologii). Dalsze badania zaowocowały ukształtowaniem się teorii koneksjonistycznej, zakładającej wprawdzie specjalizację poszczególnych obszarów mózgu, wskazującej jednak, że nie są one izolowane. W opozycji do teorii lokalizacyjnych, psychomorfologicznych, powstawały teorie antylokalizacyjne. Zaczęto również zwracać uwagę na to, że wykształcenie się mowy wymaga czynników kulturowych, głównie procesu socjalizacji. W najnowszych badaniach dużą rolę odgrywa wykorzystanie nowoczesnych techniki neuroobrazowania, pozwalających dokładniej obserwować działanie mózgu. Prelegentka zauważyła, że dzisiejsze badania skupiają się na języku rozumianym w sposób symboliczny. Tymczasem warto mieć na uwadze to, iż funkcje językowe są w dużym stopniu uwarunkowane procesami fizjologicznymi, mającymi dużą wartość komunikacyjną w stereotypowych, instynktownych zachowaniach człowieka.
W dyskusji Paweł Nowakowski wyraził przekonanie, że opisując wpływ czynników biologicznych i socjokulturowych na ukształtowanie mowy, warto rozpatrywać je łącznie, gdyż czynniki socjokulturowe są pochodne wobec biologicznych. Przywołał również stwierdzenie referentki o tym, że język pozwala lepiej przystosować się do środowiska. Według dyskutanta zasadne jest także rozważenie przeciwnej tezy, zgodnie z którą język jest swojego rodzaju środowiskiem, do którego człowiek musi się dostosować.
„Co zamiast mowy? O komunikacji alternatywnej” to tytuł następnego referatu, wygłoszonego przez Jolantę Jaszczuk i Iwonę Stępniewicz. Prelegentki wykorzystały doświadczenia ze swojej pracy zawodowej – obie zajmują się bowiem problemami osób z różnych powodów pozbawionych możliwości mówienia. Autorki referatu przybliżyły słuchaczom metody stosowane w tzw. komunikacji wspomagającej i alternatywnej, w środowisku logopedycznym znanej pod nazwą „AAC” (ang. „augmentative and alternative communication”). Jak wyjaśniły referentki, jest to obszar praktyki klinicznej i pedagogicznej, która ma na celu kompensowanie i wspieranie mowy w wypadku występowania jej zaburzeń lub braku. Wykorzystuje się w tym celu różne rodzaje systemów komunikacyjnych: systemy znaków manualnych, przestrzenno-dotykowych lub graficznych. Systemem znaków manualnych jest np. język migowy, a także program językowy makaton, wykorzystujący znaki naturalne (gesty) i symbole graficzne. Na znakach przestrzenno-dotykowych opiera się m.in. alfabet Lorma, polegający na komunikowaniu się przez kreślenie linii lub punktów na dłoni drugiej osoby. Do systemów znaków graficznych należy natomiast zaliczyć m.in. system PCS (składający się z symboli ułożonych w pewne kategorie znaczeniowe), jak również system Blissa, wykorzystujący kilka tysięcy znaków logograficznych. Wybór odpowiedniej metody komunikacji alternatywnej i wspomagającej uzależniony jest od rodzaju i stopnia zaburzenia mowy.
Referat Jolanty Jaszczuk i Iwony Stępniewicz został przyjęty z dużym zainteresowaniem. Pytania dyskutantów dotyczyły przede wszystkim sposobu wykorzystania poszczególnych metod wspomagania mowy, a także tendencji dominujących w najnowszych badaniach z tego zakresu.
Wystąpienie następnego referenta, Pawła Nowakowskiego, dotyczyło wymowy w mediach. Autor wykorzystał przykłady wypowiedzi dziennikarzy i prezenterów, pochodzące z audycji radiowych i telewizyjnych (głównie programów informacyjnych). Z obserwacji prelegenta wynika, że coraz więcej pracowników radia i telewizji ma wyraźne wady wymowy. W mediach często można również usłyszeć wymowę niepoprawną, niestaranną, często zbyt szybką. W dużym stopniu przyczynia się do tego coraz większy udział wypowiedzi spontanicznych. Jak spostrzegł Paweł Nowakowski, wśród mówiących szerzy się zwyczaj używania pauz wypełnionych (dźwięków namysłu). W ostatnim czasie nierzadko można także zauważyć zastępowanie szeregu polskich spółgłosek prepalatalnych [ś], [ź], [ć] przez przedniojęzykowo-zębowe półmiękkie [s'], [z'], [c']. Zdarzają się też często hiperpoprawne wymówienia samogłosek nosowych w wyrazach, w których te głoski nie występują, jak również niewłaściwa wymowa połączeń „qu”/„gu” w wyrazach łacińskich (np. *[kłaz-i] zamiast [kfaz-i]). Zastrzeżenia budzi ponadto sposób akcentowania niektórych form wyrazowych. Dotyczy to m.in. akcentu proparoksytonicznego, który wzorcowo powinien być stosowany w wypadku pewnych klas wyrazów. Jak zauważył referent, akcent ten jest zwykle zachowywany podczas czytania uprzednio przygotowanych tekstów. W wypowiedzi spontanicznej często ustępuje on jednak miejsca paroksytonezie. Największy problem dotyczący wymowy dziennikarzy i prezenterów to – zdaniem Pawła Nowakowskiego – intonacja. Według prelegenta dodatkowe utrudnienie wiąże się z faktem, że kwestia intonacji nie jest znormalizowana.
W dyskusji Jagoda Bloch zauważyła, że wśród dziennikarskich uchybień w zakresie wymowy warto odnotować coraz częściej spotykane skracanie samogłosek, wynikające zwykle ze zbyt szybkiego mówienia. W odpowiedzi Paweł Nowakowski stwierdził, że nie można wskazać prostej korelacji między szybkim tempem mówienia a skróconą artykulacją samogłosek (pełne wymawianie samogłosek przy żywym tempie wymowy można spotkać np. w wykonaniach Ewy Demarczyk).
Ostatnią prelegentką IX Forum Kultury Słowa była Jolanta Tambor, która wygłosiła referat zatytułowany Polskie dźwięki w cudzoziemskich ustach. Cudzoziemcy w polskich mediach. Językoznawczyni próbowała odpowiedzieć na pytanie, jak postrzegana jest wymowa polskich słów przez obcokrajowców i w jaki sposób ukazują ją media. Jolanta Tambor podała przykłady takich właściwości polszczyzny, które sprawiają szczególną trudność osobom uczącym się naszego języka. Jej zdaniem największe kłopoty sprawiają dwa rodzaje głosek. Po pierwsze, głoski szumiące, występujące często w trudnych do wymówienia grupach spółgłoskowych. Po drugie, osobom uczącym się polskiego trudność sprawia wymowa samogłosek. Dotyczy to przede wszystkim samogłosek szeregu przedniego, zwłaszcza wysokich: [i], [y], występujących w podobnych formach, np. byłem i biłem. Stereotypy związane z postrzeganiem wymowy polskich słów przez cudzoziemców referentka omówiła na przykładzie wybranych reklam telewizyjnych. Według jej obserwacji najczęściej mamy do czynienia z dwoma sposobami ukazywania wymowy obcokrajowców. Pierwszy polega na humorystycznym uwydatnieniu ich kłopotów z wymową. Cudzoziemcom przypisuje się przy tym często takie rodzaje błędów, których ci faktycznie by nie popełnili, a które odpowiadają jedynie uogólnionym wyobrażeniom na temat ich wymowy. Drugi sposób można zaobserwować np. w reklamach, w których wymowa ma wzbudzać pozytywne odczucia u widza. Jeśli bowiem wysoko oceniamy kompetencje danej osoby, to również jej wymowę (z wyraźnymi naleciałościami obcymi) traktujemy z sympatią. Prelegentka zauważyła też, że nasza skłonność do żartowania z wymowy cudzoziemców sprawia, że często nie doceniamy ich kompetencji językowych.
W dyskusji zauważono, że tytuł referatu warto doprecyzować przez wskazanie, że przedmiotem opisu jest stereotypowe postrzeganie wymowy cudzoziemców posługujących się językiem polskim. Jolanta Panasiuk zapytała, czy wśród problemów językowych cudzoziemców dałoby się wyróżnić różne trudności, zależne od rodzimego języka mówiących, na co referentka odpowiedziała twierdząco.
Na zakończenie przewodniczący Rady Języka Polskiego Andrzej Markowski podziękował organizatorom, sponsorom i uczestnikom konferencji. Podkreślił, że program tegorocznych obrad był wyjątkowo urozmaicony: złożyło się nie niego 14 referatów, panel dyskusyjny, zajęcia warsztatowe oraz konkurs oratorski. Forum spełniło zatem swoje zadanie jako interdyscyplinarne spotkanie o różnorodnych formach. Przewodniczący zapowiedział, że planowane jest wydanie tomu pokonferencyjnego. Poinformował również, że X Forum Kultury Słowa odbędzie się w roku 2015 na Uniwersytecie Kazimierza Wielkiego w Bydgoszczy. Będzie to spotkanie jubileuszowe, które stanie się zapewne doskonałą okazją do podsumowania dotychczasowych spotkań.
Autorka sprawozdania: Barbara Pędzich
Zdjęcia: Sylwia Rudolf