X Forum Kultury Słowa „Przyszłość polszczyzny – polszczyzna przyszłości” (sprawozdanie)
W dniach 14–17 października 2015 r. w Bydgoszczy odbyło się X Forum Kultury Słowa, zorganizowane przez Radę Języka Polskiego przy Prezydium PAN, Uniwersytet Kazimierza Wielkiego w Bydgoszczy, Narodowe Centrum Kultury oraz Fundację PWN. Otwierając jubileuszową konferencję, przewodniczący Rady Języka Polskiego – prof. Andrzej Markowski, zwrócił uwagę na wielką zaletę spotkań w ramach Forum Kultury Słowa. Jest nią możliwość prezentacji swoich poglądów przez wszystkich jego uczestników, ponieważ, zgodnie z założeniami Forum, na dyskusję przeznacza się tyle samo czasu co na referaty. W dalszej części wystąpienia przewodniczący RJP wraz z jej sekretarzem – dr hab. Katarzyną Kłosińską – oraz dyrektorem NCK, Krzysztofem Dudkiem, wręczyli upominek (słownik Michała Abrahama Trotza z 1779 roku ufundowany przez Narodowe Centrum Kultury) profesorowi Waleremu Pisarkowi, głównemu pomysłodawcy codwuletnich spotkań.
Pierwszą sesję panelową rozpoczął referat „O możliwościach prognozowania rozwoju języka” prof. Bogdana Walczaka z Uniwersytetu Adama Mickiewicza w Poznaniu. Podczas swojego przemówienia prelegent odniósł się do prognoz Zdzisława Stiebera, który w anglojęzycznym artykule z 1969 roku stwierdził, że istnieją pewne możliwości prognozowania rozwoju języka, ale są one ograniczone. Na podstawie dogłębnej analizy przykładów zawartych w tekście referent wysunął wniosek, że omawiane możliwości prognozowania są znikome, a także trudne i ryzykowne. Zaznaczył, że w procesach historycznych „zbyt wiele czynników na zbyt wiele sposobów na siebie oddziałuje”. Część z nich stanowią czynniki nieracjonalne, część zaś ma swoje źródło w poczynaniach ludzkich. Potwierdza to również teza prof. Bajerowej, której słowa podczas dyskusji przywołała dr hab. Katarzyna Wyrwas z Uniwersytetu Śląskiego: „Język jest najbardziej demokratycznym tworem człowieka, gdyż całe społeczeństwo, mówiąc i pisząc, niejako głosuje za pewnymi formami i większością głosów wybiera te, które najlepiej służą komunikacji społecznej”[1]. Czy zatem prognozowanie zmian zachodzących w języku ma sens? Zdaniem profesora Walczaka jest ono zasadne, gdyż może okazać się w ogólnych zarysach trafne.
Następnie głos zabrał prof. Marian Bugajski z Uniwersytetu Zielonogórskiego, którego referat nosił tytuł „Norma językowa w przyszłości”. We wstępnie referent zaznaczył, że pojęcie normy sytuuje się w centrum myślenia o języku jako o zjawisku społecznym i kulturowym. Norma stanowi granicę swobodnego posługiwania się językiem. Trudno jednak wyrokować o jej przyszłości – zdaniem prof. Bugajskiego powinno się raczej mówić o ewentualnych kierunkach jej rozwoju. Czynnikami, które mają bezpośredni wpływ na rozwój języka – a tym samym na rozwój samej normy językowej – są m.in. przemożny wpływ mediów, procesy demokratyzacyjne oraz związana z nimi wulgaryzacja (prostactwo językowe). Podczas dyskusji prof. Urszula Sokólska zwróciła uwagę na zjawisko dewulgaryzacji wulgaryzmów, a więc utraty przez nie swego pierwotnego znaczenia i nacechowania. Stają się one nic nieznaczącymi przerywnikami w wypowiedziach lub zastępują inne słowa. Ich frekwencja wzrasta szczególnie w języku mediów. Można zatem przypuszczać, że myślenie o normie językowej w przyszłości będzie nakierowane głównie na te zjawiska. Zdaniem prelegenta istotne jest zatem świadome uczestnictwo w procesach komunikacyjnych i świadome kształtowanie normy kulturowej (w tym językowej), które wymaga zastanowienia nad sposobem kształtowania elity, jako nosiciela wartości humanistycznych w kulturze. Nosicielami tymi mieli by być m.in. dziennikarze.
Kolejna referentka – dr hab. Katarzyna Kłosińska z Uniwersytetu Warszawskiego – w swoim wystąpieniu nawiązała do tytułu publikacji, będącej pokłosiem wrocławskiego Forum Kultury Słowa sprzed 20 lat, w której omówiono najważniejsze tendencje rozwojowe polszczyzny w różnych jej obszarach u progu zmian społecznych. Prelegentka odniosła się do trzech postawionych tam tez, które dotyczyły: wpływów angloamerykańskich, rozchwiania normy językowej oraz upraszczania przekazu, i omówiła je z perspektywy współczesnej. Referentka nie oceniała wymienionych zjawisk, lecz wskazała na ich przyczyny: internacjonalizację myślenia i mówienia (przez pewne grupy), funkcjonowanie normy ogólnej przy obecności komunikacyjnych norm neoplemion oraz tabloidyzację przekazu, a w konsekwencji też pewnych elementów języka. Zdaniem badaczki w związku z brakiem barier, które by ograniczały dostęp obcych elementów kulturowych i językowych, wpływy angloamerykańskie są nieporównywalnie większe niż 20 lat temu. Język angielski jest już nie tylko kodem, z którego użytkownicy języka zapożyczają poszczególne elementy (leksykalne, frazeologiczne, słowotwórcze, składniowe czy fonetyczne), lecz także wzorcem tworzenia struktur rodzimych na różnych poziomach. Zdaniem autorki wystąpienia „mamy tu do czynienia z internacjonalizacją nie tyle już języka, ile – głębiej – myślenia; już nie z zapożyczaniem elementów z obcego języka, lecz tworzeniem kodu opartego częściowo na nim, częściowo na języku rodzimym”. W dalszej części swojego wystąpienia prelegentka stwierdziła, że możliwość zaistnienia komunikacyjnego w sieci oraz rozwój gatunków infotaiment sprawiły, że to, co publiczne, zlewa się z tym, co prywatne, co powoduje, po pierwsze, detabuizację intymności, po drugie, emocjonalizację języka publicznego, po trzecie, demokratyzację obyczajów językowych, w tym obyczajów grzecznościowych, po czwarte wreszcie – rozchwianie normy językowej. Wszystkie te zjawiska należy uznać za znak naszych, cyfrowych, czasów. Na zakończenie swojego wystąpienia referentka przyznała, że opis tego zjawiska czyniony jest z perspektywy badacza, a nie użytkownika języka i „to, że badacz uzna, że byt, który nazywa normą, obecnie ma inne ramy i inną strukturę niż dawniej, nie sprawi, że użytkownik języka przestanie czuć się zagubiony w rzeczywistości językowej. Jego przekonanie o tym, że norma jest rozchwiana, będzie trwało zapewne tak długo, jak długo pozostanie w nim przyzwyczajenie do sytuacji, w której norma była w miarę stabilna, bo przede wszystkim: jednolita”.
Jako czwarty wystąpił dr hab. Jarosław Liberek z Uniwersytetu Adama Mickiewicza, którego referat nosił tytuł „Skończyła się nasza mowa”. Wizja polszczyzny, językoznawców i polonistów w świetle autotematycznych wypowiedzi z wybranych tekstów artystycznych. Referent skupił się na wybranych tekstach prozatorskich i poetyckich, których autorzy sformułowali, na marginesie fabuły albo w jej centrum, różnego typu refleksje dotyczące stanu języka, jego rozwoju i przyszłości. Z analizy poszczególnych dzieł, takich jak: „Scyzoryk” Zbigniewa Masternaka, gdzie kpiąco-ironiczne uwagi bohatera powieści potwierdzają pewien stereotyp myślenia potocznego na temat polonistów i polonistyki; „Kamery” Michała Witkowskiego, w której znaleźć można opis postaci prof. Miodka zastanawiającego się w programie telewizyjnym nad słowem „grillować”, czy opowiadania Ingi Iwasiów „Pani redaktor nie tańczy”, którego główna bohaterka na co dzień pracuje w czasopiśmie zajmującym się publikowaniem tekstów literatury współczesnej, referent wyciągnął wniosek, że są one przede wszystkim świadectwem świadomości literackiej i świadomości tworzywa, czyli języka polskiego, z którego literatura polska jest stworzona. Jego zdaniem nie wolno nam się zgadzać z artystami, którzy są zdania, że stworzona przez nich literatura powstała z ich własnego języka. Ten typ myślenia rodzi wątpliwość czy wypowiedzi pisarzy wieszczących czarną przyszłość polszczyzny świadczą dobrze o ich świadomości literackiej, świadomości językowej, świadomości komunikacyjnej czy metakomunikacyjnej.
Po wystąpieniu czwartego referenta nastąpił czas dyskusji, której uczestnicy zgodzili się, że trudno jest prognozować zmiany, które mogą zajść w języku. Profesor Walery Pisarek na pytanie, czy można przewidywać przyszłość języka i zmian społecznych, żartobliwie odpowiedział: „Można, ale te prognozy się nie sprawdzają”. Jednocześnie dyskutanci zwrócili uwagę na zagrożenie normy językowej, które jest efektem rozpadu struktury społecznej. Profesor Mirosława Marody upatrywała szansę podtrzymania normy w postrzeganiu języka jako elementu kształtującego wizerunek.
Po przerwie na obiad nastąpiła druga sesja referatów. Jako pierwsza wystąpiła prof. Aldona Skudrzyk z Uniwersytetu Śląskiego, która zwróciła uwagę na stan języka w obliczu współczesnych technologicznych przemian komunikacji. Punkt wyjścia dla badaczki stanowiła perspektywa wyznaczona przez Ongowską opozycję oralność – piśmienność rozumiana jako dwa style poznawcze, dwa sposoby myślenia, dwa sposoby kodowania i dekodowania wypowiedzi. Próbując odpowiedzieć na pytanie o zmierzch kultury pisma, autorka wskazała kilka czynników, które warunkują powstanie nowego typu komunikacji – komunikacji o charakterze inferencyjnym. Ten typ porozumiewania się bierze swój początek we wspólnym doświadczeniu komunikacyjnym młodego pokolenia, jakim są nowe media – ich nieciągłość, alinearność. Ponadto komunikacja zdominowana przez obraz redukuje obecność języka, a tym samym wpływa na zasady percepcji rzeczywistości. Zdaniem referentki w konsekwencji powstaje nowy sposób myślenia, nowa jego „składnia” i odmienny sposób postrzegania świata. Zmiany kulturowe współczesności wzmacniają inferencyjny charakter komunikacji. Konstruowanie pełnego sensu przekazu kieruje jego odbiorcę w stronę synestezyjnego kontekstu i indywidualnego odbioru, nie zaś w stronę tradycji tekstu i kodu językowego. W konsekwencji wspólnota komunikacyjna stawać się może w ten sposób zbiorem mniej lub bardziej różnicujących się idiolektów. Prelegentka podzieliła się również obserwacjami dotyczącymi przejawów przewartościowań funkcji wypowiedzi młodych użytkowników języka. Łatwość, powszechność, szybkość kontaktu i jego powierzchowność dają im niejako prawo do mówienia o niczym. Za jeden z nich uznaje się zasadę odwróconych wektorów, która znajduje swe odzwierciedlenie w odwrotnej socjalizacji (pokolenie starsze poddane jest socjalizującej presji pokolenia młodszego, będącego źródłem wiedzy i nowych form zachowań) oraz odwrotnej adaptacji.
Kolejny referent, prof. Bogusław Skowronek z Uniwersytetu Pedagogicznego im. Komisji Edukacji Narodowej w Krakowie, zajął się zależnością zachodzącą pomiędzy rozwojem mediów a przyszłością polszczyzny. Zaznaczył, że zarówno język, jak i media są częściami struktur poznawczych, które oswajają chaos świata. W związku z tym – zdaniem prof. Skowronka – należy uznać, że media wpływają w pierwszej kolejności na myślenie, a wtórnie na język. W dalszej części swojego wystąpienia badacz przedstawił 5 najważniejszych tendencji kultury mediów, do których zaliczył ich konwergencję (łączenie mediów oraz form ich użytkowania), dyferencjację nadawczą (profilowanie medialnych przekazów, tworzenie medialnych obrazów świata wraz z ich językowymi reprezentacjami), dyferencjację odbiorczą, ideologizację przekazów (po stronie nadawcy i odbiorcy), a także internetyzację, która staje się miejscem funkcjonowania dla wszystkich istniejących mediów i charakteryzujących je form językowokomunikacyjnych. Językoznawca zwrócił szczególną uwagę na możliwość aktywnego użytkowania mediów, która przyczynia się do zaniku podziału na producentów i konsumentów znaczeń. Świat medialny staje się areną współwystępowania odrębnych językowo oraz światopoglądowo wspólnot. W końcowej części referatu prof. Bogusław Skowronek zadał pytanie o możliwość zaistnienia konsumpcyjnej postnowomowy oraz nowego typu relatywizmu językowego, który byłby bezpośrednio związany z demokratyzacją mediów. Odpowiedzi na te pytania wydają się kluczowe dla rozwoju dalszych badań nad zagadnieniem.
Prof. Marek Czyżewski z Uniwersytetu Łódzkiego wygłosił referat zatytułowany „Retoryka podmiotowej sprawczości. Uwarunkowania – reguły – skutki”. Przedmiotem zainteresowania badacza był problem świadomości dyskursowej, która w odróżnieniu od kwestii świadomości językowej, wymaga wyraźnego kontrastowania rzeczywistości i jej językowych obrazów. Referent zwrócił uwagę, że procesom medializacji we współczesnym społeczeństwie nie towarzyszy odpowiedni wzrost świadomości dyskursowej. Przeciwnie (i paradoksalnie), zarówno w obszarze mowy potocznej odbiorców mediów, jak i w obszarze dyskursu elit symbolicznych (m.in. w nauce, publicystyce i w szeroko pojmowanym poradnictwie) można mówić o rosnącym niedoborze świadomości dyskursowej. Schematy myślowe w obu sferach traktowane są często jako rzekome opisy rzeczywistości, a nie jako jej obrazy. Zdaniem prof. Marka Czyżewskiego między obydwoma obszarami ma miejsce intensywna dyfuzja: z jednej strony schematy myślowe stosowane w dyskursie elit symbolicznych podlegają popularyzacji za pośrednictwem mediów, z drugiej zaś strony schematy zdroworozsądkowe są z łatwością adaptowane w dyskursie elit symbolicznych, co świadczy o jego postępującej „populizacji”, która charakterystyczna jest dla kultury Zachodu. W dalszej części referatu autor stwierdził, że z powodu przyśpieszonych procesów modernizacji w naszej części Europy zjawiska te zaznaczają się ze szczególną mocą we współczesnej polszczyźnie i mogą w istotnym stopniu kształtować polszczyznę przyszłości. Dziedziną, w której wskazane zjawiska zyskują szczególną rangę jest, zdaniem referenta, retoryka podmiotowej sprawczości, posługująca się takimi hasłami, jak „podmiotowość”, „aktywność”, „inicjatywa”, „uczestnictwo”, „projekt”, „odpowiedzialność za siebie”, „kreatywność”, „innowacyjność”, „przedsiębiorczość” czy „rozwój osobisty”. Retoryka ta stosowana jest w odniesieniu do tak odległych sfer, jak gospodarka, sztuka, społeczeństwo obywatelskie oraz życie prywatne.
Następny referat, zatytułowany „Technologia. Język. Cywilizacja”, wygłosił prof. Adam Pawłowski z Uniwersytetu Wrocławskiego. Zauważył on, że wpływ techniki na język był w historii badań ujmowany dwojako. Z jednej strony nowe artefakty, wynalazki, a niekiedy całe domeny działalności były wyzwaniem dla warstwy semantycznej systemu językowego, który wprawdzie – zdaniem referenta – dysponuje potencjałem kreacyjnym (w postaci istniejącej leksyki i reguł morfosyntaktycznych), ale „nie jest magazynem, z którego po prostu wydobywa się kolejne nazwy dla nowych desygnatów”. W tym obszarze system językowy wykorzystuje na szeroką skalę proces metaforyzacji, polegający na nieprzypadkowym (motywowanym podobieństwem lub inną relacją) wzbogacaniu pola semantycznego leksemów, a niekiedy także na zastępowaniu znaczeń dawnych nowymi. W dalszej kolejności język wzbogacają także neologizmy powstające na skutek intencjonalnej działalności człowieka. Z drugiej zaś strony – zdaniem badacza – istnieje obszar styku technologii i języka, który ma związek z wynalazkami: najpierw druku, następnie komputera. Pierwszy wynalazek wymusił kodyfikację pisma i standaryzację języków. W wymiarze cywilizacyjnym wytworzył pamięć ludzkości, która zaczęła sięgać poza naturalną granicę trzech pokoleń, doprowadził także do ogólnego podniesienia stanu wiedzy społeczeństw, wymuszając masową edukację. Wynalazek komputera zaś pozwolił na zapis tekstu w postaci cyfrowej i automatyzację jego przetwarzania. Jako przykład referent podał istniejące współcześnie narzędzia językowe dla polszczyzny, które pozwalają na automatyczne hasłowanie form fleksyjnych i ich dezambiguację (wskazanie właściwego opisu form homograficznych), rozpoznają wzorce składniowe zdań, a także pozwalają na podstawowe analizy semantyki. Zdaniem autora technologia języka, pozwalająca na automatyzację procesów komunikacji (interpersonalnej, społecznej, naukowej), jest dziś obszarem wiedzotwórczym o wyjątkowym potencjale i w znacznym stopniu decyduje o poziomie cywilizacyjnym państw.
W dyskusji zamykającej drugą sesję panelową (a tym samym pierwszy dzień konferencji), poruszona została przede wszystkim kwestia dominacji emocjonalnego przekazu we współczesnej komunikacji. Profesor Mirosława Marody zwróciła uwagę na fakt, że coraz mniejszym zainteresowaniem cieszą się te rodzaje dyskursu, w których element emocjonalnego nacechowania języka jest niepożądany (za przykład może posłużyć dyskurs naukowy). Z kolei prof. Anna Cegieła dodała, że wspomniana emocjonalność wiąże się bezpośrednio z aksjologizacją przekazu. Władzę nad narracją przejmuje ten, kto – narzucając słowne etykiety – zmusza do przyjęcia konkretnych postaw (sposobu myślenia i zachowania).
Czwartkowe obrady rozpoczął referat zatytułowany „Czy w przestrzeni publicznej możliwa jest komunikacja etyczna?”, który przedstawiła prof. Anna Cegieła z Uniwersytetu Warszawskiego. Na podstawie przeprowadzonych badań autorka stwierdziła, że etyczne normy użycia słowa w przestrzeni publicznej są nagminnie naruszane. Jej zdaniem obszary, w których dochodzi do najgroźniejszych dla wspólnoty komunikacyjnej nadużyć, to polityka, media, biznes, reklama, administracja państwowa oraz internet. W polityce najbardziej wyraziste są retoryka pogardy i wykluczania oraz stereotypizacja, w biznesie i administracji – dehumanizacja; reklama i media znacznie ograniczają autonomiczność odbiorców, w internecie natomiast najczęstsze jest obrażanie. Prelegentka zwróciła uwagę, że brak namysłu nad wartościami i obsesja skuteczności w różnych sferach działalności sprawiają, że słów używa się bez zastanowienia i nie po to, aby się porozumieć, lecz po to, by osiągnąć cel (marketingowy, polityczny, finansowy itd.). W dalszej części wystąpienia referentka przedstawiła propozycje poczynań, które mogłyby przynieść pozytywne skutki w przeciwdziałaniu wyżej wymienionym procesom. Należą do nich prace nad uzyskaniem przez ludzi wiedzy o etyce słowa i świadomości tego, że zachowania słowne mogą naruszać prawa człowieka, w tym jego godność. Ogromną rolę mogłaby w takim procesie odegrać telewizja publiczna, gdyż mogłaby kształtować standardy etycznych zachowań językowych. W mediach i polityce najpotrzebniejsze są właśnie wzory oraz odwołanie się do poczucia wstydu (z powodu niespełniania standardów). Ta wiedza – zdaniem autorki – pozwoliłaby w szerszym niż dziś zakresie stawiać wymagania dotyczące etycznego posługiwania się słowem i te prawa egzekwować. Systemowe działania mogą wymusić zmianę w posługiwaniu się językiem także w administracji państwowej. W zakończeniu swojego wystąpienia profesor Anna Cegieła zaznaczyła, że o wiele trudniej będzie doprowadzić do zmiany zachowań językowych w biznesie, a zwłaszcza w korporacjach, w których permanentnie człowiek jest reifikowany, a personifikowana jest firma. Te zachowania są bowiem świadome i wynikają ze skrajnego sfunkcjonalizowania człowieka. W tym wypadku skuteczne działania muszą się oprzeć na wskazaniu korzyści z etycznej komunikacji. W związku z tym, że korzyści te nie przekładają się na zyski bezpośrednio, można się obawiać, że język używany w biznesie może co najwyżej spełniać kryteria grzeczności, ale nie etyczności.
Następny referent, prof. Andrzej Piotrowski z Uniwersytetu Łódzkiego, w swoim wystąpieniu omówił dylematy dyskursu modernizacyjnego w Polsce. Na wstępie prelegent zaznaczył, że zmiany, którym podlega współczesna polszczyzna, są w przeważającej mierze wynikiem przyswajania kulturowych wzorów właściwych dzisiejszym społeczeństwom Zachodu, związanych z procesami globalizacji i europeizacji. Proces ten – zdaniem referenta – polega z jednej strony na upowszechnianiu się orientacji indywidualistycznych, które wyrażają się w nastawieniu na wartości związane z sukcesem w sferze pracy, społecznego uczestnictwa i osobistego rozwoju; z drugiej zaś strony na rozwoju tendencji do rygorystycznej regulacji sposobów działania w kontekstach instytucjonalnych, opartej na wiedzy ekspertów z dziedziny teorii organizacji i nauk o zarządzaniu. Na podstawie analizy dokumentów związanych z przemianami systemu uniwersyteckiego w Polsce, projektowanymi według zasad tak zwanego procesu bolońskiego, autor zarysował dylematy w sferze znaczeń i reguł rozmaitych odmian dyskursu publicznego. W omówionym przez prelegenta rodzaju dyskursu występuje schemat, który oddziela wiedzę (kompetencje w zakresie treści), umiejętności (kompetencje w zakresie aplikowania wiedzy w działaniach praktycznych) oraz kompetencje personalne i społeczne (nazywane również obszarem kompetencji miękkich). To w tym ostatnim obszarze właśnie autor upatruje zderzenia indywidualizmu (z akcentem na samorealizację, autentyczność, rozwoju osobowego) z wymogami o charakterze proceduralnym (standaryzującym). Dylemat – zdaniem referenta – polega na próbie połączenia dwóch obszarów, które oparte są na odrębnych językach: na języku wartości, który odwołuje się do słuszności, oraz na języku interesów, odwołującego się do kalkulacji strat i zysków.
Kolejna prelegentka, prof. Małgorzata Marcjanik z Uniwersytetu Warszawskiego, przedstawiła referat zatytułowany „Ewolucja językowych zwyczajów grzecznościowych ostatniego ćwierćwiecza”. Prowadzone przez 26 lat obserwacje dają – zdaniem badaczki – wystarczającą perspektywę, by ocenić to, co w zakresie obyczajów grzecznościowych straciliśmy, co zyskaliśmy, a co jest jeszcze w fazie ewolucji. Celem wystąpienia było wskazanie oraz omówienie wybranych zachowań grzecznościowych, które weszły do języka i utrwaliły się na tyle, że można prognozować, iż zostaną w nim na dłużej. We wstępie referentka zaznaczyła, że nowe pokolenia (po 1989 roku) nie widzą niczego złego w zachowaniach, które wcześniejsze generacje uznawały za przejawy skracania dystansu. Wiąże się to z przekonaniem, że polska uprzejmość nie powinna mieć cech podwładności. Zachowania grzecznościowego egalitaryzmu są następstwem ustroju demokratycznego, który zniósł hierarchiczną strukturę społeczeństwa, związaną z występowaniem elit. W dalszej części referatu prof. Marcjanik przedstawiła trzy przejawy nowego zastosowania form adresatywnych. Pierwszym z nich są formy pośrednie, które łączą dwa typy relacji: „na ty” oraz „na pan/pani”. Za przykład posłużyły badaczce formy języka urzędowego, w których do odbiorcy komunikatu zwraca się np. pani Katarzyno. Ten typ – zdaniem badaczki – rozprzestrzenia się na inne obszary stosunków międzyludzkich, co staje się dostrzegalne w relacjach uniwersyteckich, poddawanych eksperymentom egalitaryzacji. Jednocześnie referentka zaznaczyła, że istnieją środowiska, w których nadal obowiązuje ścisła tytulatura (wojsko, środowiska prawnicze). Drugim przejawem nowego zastosowania form adresatywnych, omówionym w referacie, jest stosowanie form czasownikowych drugiej osoby liczby mnogiej w zwracaniu się do konkretnego (zebranego np. w sali audytorium) odbiorcy zbiorowego. Są to formy typu: widzicie, rozumiecie, których wysoka frekwencja charakterystyczna jest dla języka polityki. Ma to związek ze stworzeniem wrażenia bliskości nadawcy i odbiorcy oraz – co za tym idzie – ze skutecznością samego komunikatu. Na zakończenie swojego wystąpienia prelegentka omówiła trzeci z przejawów nowego zastosowania form adresatywnych. Jest nim skłonność do używania przez znane osoby wulgaryzmów i eufemizmów słów wulgarnych w komunikacji. Celem takich zachowań językowych jest uatrakcyjnienie wypowiedzi.
Następnie głos zabrała prof. Dorota Zdunkiewicz-Jedynak, która przedstawiła referat zatytułowany „Czy zagraża nam język popchrześcijaństwa? O nowych zjawiskach w polskim dyskursie religijnym pierwszych dekad XXI wieku”. Referentka postawiła tezę, że nową cechą polskiego dyskursu religijnego pierwszych dekad XXI wieku jest próba „zaprzyjaźnienia” go z bezrefleksyjną popkulturą i właściwym jej językiem. W imię idei nowej ewangelizacji i uwspółcześnienia przekazu biblijnego rodzi się polski język religijny dla pokolenia „kwejkowego”, a na polskiej ambonie zaczyna królować pragmatyzm (znajdujący wyraz w języku i treści nauk kaznodziejskich). Kazania obfitują w utarte frazemy i powielane koncepty kaznodziejskie (nie bez wpływu na to pozostaje internet, łatwo i szybko udostępniający na różnych portalach gotowe nauki kaznodziejskie). Powodem takiego stanu rzeczy jest – zdaniem autorki wystąpienia – atrakcyjność i łatwość przekazu, które nie wymagają intelektualnego zaangażowania i poświęconego czasu. W konsekwencji mamy do czynienia z poszukiwaniami nowych metod głoszenia prawd ewangelicznych poza murami kościołów, przede wszystkim w internecie, które prowadzą do powstawania nowych gatunków wypowiedzi, jak „e-kazanie” czy „ewangelizator”, na fanpage’ach zaś przekazywane jest przesłanie biblijne w konwencji żartobliwych memów.
Po wysłuchaniu czterech referatów nadszedł moment dyskusji, podczas której dr hab. Katarzyna Kłosińska zauważyła, że analizowany przez profesor Dorotę Zdunkiewicz-Jedynak sposób mówienia o sprawach sacrum desakralizuje ten obszar, pozbawiając go podstawowego elementu – tajemnicy. Natomiast profesor Halina Zgółkowa zastanawiała się, czy w języku tym istotną kategorią nie jest kicz – również językowy.
Redaktor Bartłomiej Chaciński podczas swojego wystąpienia skoncentrował się na zjawisku „pisanego języka mówionego”, który uznał za nową formę języka potocznego w sieci. Zdaniem prelegenta słownictwo ze świata wirtualnego (rozmowy prowadzone na forach, na czatach, a wreszcie w serwisach społecznościowych typu Facebook) przenosi się do świata codziennego. Elementy służące nawigacji i porządkowaniu świata wirtualnego (np. hashtagi) stają się elementem języka ogólnego i mają szanse w jakiejś formule trafić na stałe do potocznej polszczyzny. Szukanie odpowiedników dla słów i zwrotów znanych z pogawędek w internecie wpływa na język potoczny (must have, śmiechnąć, dednąć, trollować itd.). Poza językiem mediów i hasłami reklamowymi pojawiła się też nowa, bardzo dynamicznie rozwijająca się metoda rozpowszechniania nowych słów – to nurt memów obrazkowych z komentarzami oraz emotikony. Z kolei funkcję słowników kształtujących normy językowe zaczynają pełnić (to jeszcze jedno zjawisko przeszczepione z krajów anglosaskich) słowniki społecznościowe.
Następny referent, dr Jan Grzenia z Uniwersytetu Śląskiego w Katowicach, w swoim wystąpieniu zatytułowanym „Internet a przyszłość polszczyzny” postawił tezę, że związek języka z technologią (która rozwija się według pewnego planu) daje możliwość przewidzenia pewnych aspektów jego rozwoju. Badacz wyróżnił trzy typy komunikacji internetowej, które poddane zostały głębszej analizie: typ konwersacyjny (fora internetowe), typ korespondencyjny (e-maile) oraz typ hipertekstowy (blogi). Na podstawie obserwacji zmian językowych w wymienionych obszarach komunikacji w sieci prelegent stwierdził, że internet może przyspieszyć te, które już mają miejsce. W dalszej części swojego wystąpienia dr Grzenia omówił kilka mechanizmów związanych z współistnieniem języka i technologii. Pierwszym z nich był problem dostępu do zasobów, związany z wyczerpywaniem się liczby nazw adresów mailowych oraz internetowych. Nazwy te stały się towarem internetowego rynku, na którym wartość uzależniona jest od popytu oraz prestiżu marki. Działanie podobnego mechanizmu badacz dostrzega w blogosferze, gdzie występuje tzw. marketing treści. Kolejnym z poruszonych zagadnień była relacja mowy i pisma w komunikowaniu się w internecie. Istnienie aplikacji, które zdolne są do odczytywania pisma i przetwarzania go na mowę (i odwrotnie), zmienia relacje między tymi dwoma substancjami językowymi, zacierając ich wyraźne granice. Istnieją także programy (tzw. booty), które potrafią prowadzić rozmowę z ludźmi, analizując uprzednio wpisywany przez użytkownika tekst. Na zakończenie swojego wystąpienia referent odniósł się do internetowych narzędzi poznawania języka, a także do znoszenia barier w kontaktach z językami obcymi. Pierwszy aspekt związany jest bezpośrednio z istnieniem internetowych poradni językowych oraz słowników, które tworzone są zarówno przez profesjonalnych leksykografów, jak i amatorów. Natychmiastowy dostęp do informacji umożliwia użytkownikom formułowanie wypowiedzi zgodnie z obowiązującą normą, a także poszerzenie świadomości językowej. Natomiast w pokonywaniu trudności rozumienia tekstów w obcym języku pomocne są translatory do tekstu pisanego i mówionego. Badacz zwrócił także uwagę na fakt, że powstaje rodzime słownictwo związane z internetem (wyszukiwarka, przeglądarka), a nazwy zapożyczone zostają bardzo szybko spolszczone (fejs), co świadczy o jego znacznym przyswojeniu w świadomości polskich użytkowników.
W dyskusji, która zamykała czwartkową sesję referatów, zwrócono uwagę przede wszystkim na dynamikę zmian językowych związanych z internetem. Profesor Bogusław Skowronek zauważył, że innowacje te mają ograniczony zasięg i istnieją w języku krótko. Postulował także, aby dokładniej przyjrzeć się samej relacji pomiędzy technologią a językiem. Podobną opinię wyraziła dr hab. Katarzyna Kłosińska mówiąc, że zmienność jest jednym z najważniejszych mechanizmów współczesnej polszczyzny i trudno jest mówić o stabilności języka, którego system pojęciowy staje się coraz mniej wydolny. Opiniom tym wtórowała prof. Halina Zgółkowa, która postawiła pytanie o potrzebę nauczania języka internetowego.
Podczas drugiego dnia Forum miała także miejsce dyskusja panelowa „Przyszłość polszczyzny w edukacji – spotkanie w pół drogi”, prowadzona przez prof. Agnieszkę Rypel z Uniwersytetu Kazimierza Wielkiego. Uczestniczyli w niej: prof. Ewa Filipiak (Uniwersytet Kazimierza Wielkiego w Bydgoszczy), dr Agata Hącia (Instytut Badań Edukacyjnych), dr hab. Danuta Krzyżyk (Uniwersytet Śląski) oraz dr hab. Roman Starz (Uniwersytet Jana Kochanowskiego w Kielcach).
Dyskutanci zgodnie stwierdzili, że znajomość języka ojczystego to ogromny kapitał. Przywołane zostały słowa Lwa S. Wygotskiego, który twierdził, że język jako instrument myślenia i środek komunikacji jest najważniejszym narzędziem intelektualnym, mającym fundamentalne znaczenie dla optymalnego uczenia się i rozwoju. Profesor Ewa Filipiak dodała, że „skuteczne korzystanie z tego kapitału jest możliwe tylko wówczas, jeżeli użytkownik rozumie język, którym się posługuje, oraz znajduje przyjemność w jego uczeniu się i poznawaniu”. Dlatego tak istotna jest jakość edukacji.
Dr Agata Hącia zaznaczyła, że przyszłość nauczania języka polskiego zależy w dużej mierze od nauczycieli. Ci zaś – co wynika z przedstawionych przez dyskutankę wyników badań prowadzonych przez Instytut Badań Edukacyjnych oraz Instytut Filozofii i Socjologii PAN – bardzo często mają niedostateczne kompetencje. Deklarują jednak chęć ich podnoszenia, zaznaczając jednocześnie, że niedostatki wynikają z ułomności wykształcenia akademickiego. Ważne jest zatem – zdaniem uczestniczki dyskusji – nawiązanie i rozwijanie współpracy środowisk akademickich i szkolnych. Wśród wymienionych przez dr Hącię problemów edukacji językowej pojawiły się także: kłopoty uczniów z przetwarzaniem i interpretowaniem informacji z tekstu, brak umiejętności tworzenia wypowiedzi reprezentującej określony gatunek użytkowy czy problemy w zachowaniu zasad poprawności językowej.
Przyszłość polszczyzny w szkolnictwie wiąże się bezpośrednio z poszerzaniem świadomości językowej zarówno nauczycieli, jak i uczniów. Pozwala ona skutecznie przygotować do odbioru i tworzenia zarówno linearnych tekstów dyskursywnych, jak i tekstów funkcjonujących w cyberprzestrzeni. Dyskutanci starali się odpowiedzieć na pytanie o to, jakie zmiany w stylu komunikacji i zachowaniach językowych zaakceptować i włączyć w proces nauczania. Kształcenie językowe wobec przemian cywilizacyjnych (dominacji audiowizualności, ekspansji potoczności i wzrostu znaczenia języka angielskiego) to jedno z głównych wyzwań współczesnej edukacji językowej.
Piątkowe obrady rozpoczął referat zatytułowany „Przyszłość środowiskowych i zawodowych odmian polszczyzny”, który wygłosiła prof. Małgorzata Święcicka z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy. Prelegentka zwróciła uwagę, że socjolingwista podejmujący się zadania naukowej predykcji w centrum uwagi stawia społeczne zróżnicowanie języka. Naukowy opis przyszłego stanu środowiskowych i zawodowych odmian polszczyzny opierać się musi zatem na koncepcji kontinuum, wraz z odniesieniem do podstawowych kategorii socjolektalnych. Model prognostyczny można budować – zdaniem referentki – dysponując danymi historycznojęzykowymi oraz odnosząc się do charakterystyk struktury socjolektalnej współcześnie. Ukształtowanie odmian środowiskowych i zawodowych warunkują różnego rodzaju czynniki zewnętrzne – procesy społeczne, zmiany gospodarcze czy polityczne. Prognoza socjolingwisty musi uwzględniać przewidywania w podanym zakresie formułowane przez przedstawicieli innych dyscyplin naukowych, zwłaszcza nauk społecznych. Poza tym istotne są też przewidywania podyktowane samymi tendencjami wewnątrzjęzykowymi. W podsumowaniu swojego wystąpienia profesor Święcicka stwierdziła, że prognozowany model społecznego zróżnicowania polszczyzny to model oparty z jednej strony na stałości, z drugiej zaś na zmienności języka.
Następnie głos zabrał dr Artur Czesak z Uniwersytetu Jagiellońskiego, który wygłosił referat zatytułowany „Przyszłość gwar ludowych”. Dokonując na wstępie spojrzenia w przeszłość gwar i gwaroznawstwa, referent stwierdził, że większość diagnoz i przewidywań co do przyszłości gwar, formułowanych w XX wieku, okazała się zasadniczo lub w większości nietrafna. Prelegent zwrócił uwagę, że były to przede wszystkim przewidywania co do tempa zanikania gwar, powstania po 1945 r. „nowych dialektów mieszanych” oraz procesu integracji językowej, która zasadzała się na postulacie budowania jedności narodu. Z upływem czasu owe przypuszczenia stały się „faktami podręcznikowymi” i ukształtowały sposób postrzegania polskiej rzeczywistości językowej. Tymczasem zmiany – zdaniem prelegenta – zostały wywołane przez czynniki demograficzne, do których zalicza się wielki ubytek ludnościowy w czasie I i II wojny światowej, fale wysiedleń i emigracji, fizyczną likwidację lub rozproszenie użytkowników określonych gwar oraz urbanizację i migrację ze wsi do miast. Zdaniem badacza, aby mówić o przyszłości gwar ludowych, trzeba najpierw dokonać relektury i redefinicji pojęć używanych przez językoznawców (w tym dialektologów), ponieważ upływ czasu nie pozwala na ich używanie w kolejnym stuleciu bez narastającego poczucia anachroniczności i dysonansu poznawczego. Aby uchwycić dynamikę procesów, należy rozpoznać teraźniejszość, dokonać kompleksowej „inwentaryzacji” terytoriów i „gwarowych” systemów językowych, która winna być wynikiem współdziałania lokalnych społeczności i instytucji naukowych, a jej rezultaty powszechnie dostępne. Na zakończenie swojego wystąpienia językoznawca stwierdził, że przyszłość gwar ludowych może wyglądać trojako. Pierwszy scenariusz zakłada trwanie gwar i pełnienie przez nie funkcji komunikacyjnych oraz jednoczących wspólnotę kulturową, ponieważ – zdaniem referenta – istnienie poza mainstreamem nie jest nieistnieniem ani zanikaniem. Druga prognoza dotyczy zmiany funkcji gwar spowodowanej tendencjami „emancypacyjnymi”, podnoszeniem prestiżu, oraz częstszym używaniem w piśmie. Przejawem tej zmiany są współczesne próby aktywnego przeciwdziałania zanikowi gwar oraz ich rewitalizacja przez kodyfikację, tworzenie elementarzy i rozwój piśmiennictwa „gwarowego”. Trzecia hipoteza zaś ma związek z zanikiem gwar, warunkowanym czynnikami środowiskowymi i wewnątrzwspólnotowymi.
Następny referat został wygłoszony w duecie – przedstawiły go prof. prof. Anna Piotrowicz i Małgorzata Witaszek-Samborska z Uniwersytetu im. Adama Mickiewicza w Poznaniu. Dotyczył on przyszłości gwar miejskich na przykładzie gwary poznańskiej, która pod względem słownictwa i frazeologii jest najlepiej opisana i udokumentowana. Wbrew powszechnie panującej opinii o zanikaniu gwar wiejskich i miejskich na skutek pogłębiającego się wciąż procesu unifikacji językowej gwara poznańska – zdaniem referentek – wciąż żyje, co wynika przede wszystkim z tradycji pielęgnowania odrębności językowych, a także stereotypowo przypisywanego Wielkopolanom konserwatyzmu. Mimo że część słownictwa w żywej mowie stopniowo zanika, to przeprowadzona przez badaczki obserwacja zachowań językowych poznaniaków potwierdza, że liczne regionalne wyrazy i frazeologizmy funkcjonują w codziennej komunikacji (np. bimba, gzik/ gzika, mieć długie zęby na coś, naramka, robić łóżko, zakluczać). Ponadto, jak wynika z przeprowadzonych przez językoznawczynie badań, zmiany miejskich realiów powodują, że powstają nowe regionalne wyrazy, np. pestka – Poznański Szybki Tramwaj, peka – karta komunikacyjna (od Poznańska Elektroniczna Karta Aglomeracyjna), czy Chlebak – budynek nowego dworca PKP. Gwara poznańska wykorzystywana jest także w miejskiej przestrzeni publicznej w funkcjach ludycznej i marketingowej. Za przykład posłużyły referentkom nazwy lokali (Bistro w Antrejce i Szneka z Glancem Caffe) czy napisy nad pojemnikami na śmieci (Segreguj, tej!). W części podsumowującej autorki wystąpienia stwierdziły, że można przewidywać trwanie gwary poznańskiej w przyszłości jako jednego z elementów silnie utrwalających poczucie regionalnej tożsamości mieszkańców miasta.
Referat dr. Tomasza Piekota z Uniwersytetu Wrocławskiego nosił tytuł „Przyszłość polszczyzny z perspektywy ruchu prostego języka”. Dotyczył nieformalnej inicjatywy pt. „Prosto po polsku”, która została powołana do życia przez grupę wrocławskich językoznawców w 2010 roku. Jej celem jest upowszechnianie idei prostego języka w komunikacji publicznej, prowadzenie badań nad jej przystępnością i opracowanie zasad efektywnego redagowania tekstów. We wstępie swojego przemówienia referent zaznaczył, że w Polsce jest problem z odróżnieniem języka urzędowego od języka firmowego. Widać jednak nowe tendencje w komunikacji komercyjnej, które wskazują, że najbliższa przyszłość polszczyzny w tym zakresie ulegnie głębokiej przemianie, w ramach której język firm będzie „uciekał” od urzędowej formalizacji. Co istotne, język urzędowy również zmierza w podobnym kierunku. W dalszej części swojego wystąpienia badacz wymienił trzy główne przyczyny tego procesu. Pierwszą z nich jest motyw cywilizacyjny, który dotyczy ograniczeń człowieka w przetwarzaniu ogromnej ilości informacji we współczesnym świecie. Druga mówi o potrzebie wypracowania nowego języka dla technologii mobilnych – referent nazwał tę motywację technologiczną. Trzecia natomiast zwraca uwagę na to, że polski język urzędowy jest nieprzyjazny odbiorcy (obywatelowi). Na zakończenie prelegent zwrócił uwagę, że konsekwencją omówionego procesu jest odejście od modelu państwa regulacyjnego w stronę państwa usługowego (takiego, które działa jak firma).
Następny prelegent, prof. Mariusz Rutkowski z Uniwersytetu Warmińsko-Mazurskiego w Olsztynie, wygłosił referat pt. „Tendencje we współczesnym nazewnictwie polskim”. We wstępie badacz zaznaczył, że współcześnie można zauważyć ścieranie się dwóch zasadniczych tendencji nazwotwórczych: konserwatywnej i nowoczesnej. Pierwsza z nich, objawiająca się utrzymywaniem tradycyjnych zasad w nazewnictwie, dominuje w pewnych obszarach o zasięgu ogólnym (np. w toponimii miejskiej). Wpływ nowych wzorców zaś w największym stopniu dostrzegalny jest – zdaniem referenta – w nazewnictwie socjolektalnym oraz w niektórych kategoriach nazw ogólnych (branding, imiennictwo, nazwy medialne). W dalszej części swojej wypowiedzi prelegent stwierdził, że ogromny wzrost liczebności obiektów onimicznych spowodowany jest zmianą ich funkcji. Dawniej na nazwę zasługiwały obiekty wyjątkowo ważne; dziś ma ona pełnić funkcję marketingową (ma być atrakcyjna i przyciągać uwagę). W nowym nazewnictwie następuje zwrot ku odbiorcy, którego aktywizuje się poprzez mikrokomunikaty zawarte w nazwach produktów. Nie bez znaczenia pozostaje zjawisko globalizacji nazewniczej, które wiąże się z ekspansywnością angielszczyzny. Zdaniem badacza na gruncie polszczyzny powiela się obce wzory składniowe. Za przykład posłużyły autorowi konstrukcje typu: Orlen Warsaw Marathon, które tworzone są na wzór składni angielskiej wraz z towarzyszącą jej leksyką, która ma za zadanie podnieść prestiż wydarzenia. W miarę stała jest natomiast moda imiennicza. Autor wystąpienia odnotował, że najbardziej popularne są niezmiennie te same imiona (Julia, Zofia – wśród dziewczynek oraz Jakub i Kacper – pośród chłopców). W kategorii nazwisk sytuacja – zdaniem autora – jest stabilna, co spowodowane jest m.in. ich dziedziczeniem.
Druga część piątkowych obrad została przeznaczona na dyskusję panelową „Kształtowanie postaw wobec języka”, którą poprowadził prof. Jerzy Bralczyk. Uczestniczyli w niej: prof. Mirosław Bańko z Uniwersytetu Warszawskiego, prof. Ewa Kołodziejek z Uniwersytetu Szczecińskiego, red. Teresa Kruszona z „Gazety Wyborczej”, dr Marcin Poprawa z Uniwersytetu Wrocławskiego, prof. Ewa Rogowska-Cybulska z Uniwersytetu Gdańskiego oraz dr hab. Katarzyna Wyrwas z Uniwersytetu Śląskiego.
Językoznawcy uczestniczący w dyskusji zgodnie przyznali, że kształtowanie postaw wobec języka ma przełożenie na ogólny kształt relacji społecznych. Profesor Mirosław Bańko zaznaczył, że „językoznawca, który udziela porad językowych może – wstrzymując się od skrajnych ocen i emocjonalnych sądów oraz ukazując język w całej jego złożoności – kształtować analogiczne postawy wobec rzeczywistości społecznej i uczyć zrozumienia wobec odmiennych postaw ludzkich”.
W dalszej części spotkania badacze podzielili się swoimi doświadczeniami z prowadzenia poradni językowych, które stają się coraz powszechniejszym narzędziem poszerzania świadomości językowej wśród użytkowników polszczyzny. Ich rosnąca popularność świadczy – jak zauważyła dr hab. Katarzyna Wyrwas – o aktywnej postawie wobec zmian językowych, potrzebie zdobywania, poszukiwania oraz poszerzania wiedzy na temat języka. Dyskutanci zwrócili uwagę, że można wyróżnić zasadniczo dwa rodzaje postaw, którymi charakteryzują się osoby kierujące pytania do poradni językowych: postawa otwarta na innowacje oraz ta, którą cechuje brak tolerancji dla zmian. Trudności w udzielaniu odpowiedzi pojawiają się najczęściej, gdy językoznawca ma do czynienia z pytającym drugiego typu, gdyż oczekuje on zajęcia jednoznacznego stanowiska. Do najczęstszych pytań kierowanych do poradni należą te, które dotyczą poprawnej pisowni, etymologii oraz nazw własnych.
W kształtowaniu postaw wobec języka istotną rolę odgrywa szkoła, na co zwróciła uwagę profesor Ewa Rogowska-Cybulska. Badaczka wskazała na negatywną rolę testów i egzaminów z języka polskiego po kolejnych etapach nauczania w kształtowaniu świadomości funkcji poznawczej języka ogólnego. Układający pytania nie zwracają uwagi – zdaniem dyskutantki – na ich związek z rzeczywistością, co w rezultacie kształtuje przekonanie o nieprzydatności odmiany ogólnej polszczyzny (w odróżnieniu od polszczyzny potocznej).
Na zakończenie dyskusji uczestnicy zwrócili uwagę, że w przestrzeni publicznej brakuje podmiotów kształtujących obraz języka polskiego jako dobra narodowego, co mogłoby znacznie przyczynić się do podniesienia jego wartości, a tym samym wypracowania pożądanych wobec niego postaw.
Ostatniego dnia konferencji prof. Anna Dąbrowska z Uniwersytetu Wrocławskiego wygłosiła referat pt. „Czy polszczyzna cudzoziemców pokazuje zmiany w języku?”. Badaczka postawiła tezę, że w wypowiedziach cudzoziemców uczących się języka polskiego odzwierciedlają się zmiany zachodzące we współczesnym języku polskim. Przejawia się to przede wszystkim w morfologii (w nieodmienianiu rzeczowników pospolitych), koniugacji (w dobieraniu złego wzorca koniugacyjnego) oraz słowotwórstwie, w którym tendencje pokrywają się z zachowaniami językowymi rodzimych jego użytkowników (najpopularniejsze formanty to: -owy; -ość). W obszarze składni częste jest zastępowanie rządu biernikowego dopełniaczowym oraz zastępowanie dopełniacza biernikiem w funkcji dopełnienia bliższego, choć ta tradycja – co zaznaczyła referentka – sięga XVI wieku. Wspólne jest także stosowanie potocyzmów w sytuacjach oficjalnych. Największej liczby błędów językowych popełnianych przez obcokrajowców prelegentka upatruje na poziomie leksyki oraz składni. Nie można ich jednak uznać za innowacje językowe. Dlatego podsumowując swoją wypowiedź, badaczka stwierdziła, że nie ma podstaw, by sądzić, że wypowiedzi cudzoziemców wpływają na zmiany języka polskiego.
Następna referentka – profesor Halina Zgółkowa z Uniwersytetu im. Adama Mickiewicza w Poznaniu – swoje wystąpienie zatytułowała „Język dzieci w wieku przedszkolnym jako język przyszłości”. Na podstawie korpusu (zawierającego ponad milion leksemów) badaczka potwierdziła słowa Kornela Czukowskiego, że dziecko w wieku od dwóch do pięciu lat jest „genialnym lingwistą”, ponieważ dostrzega w języku logikę i stosuje się do jej zasad. Za przykład posłużyły referentce sposoby wykorzystywania przez dzieci tych samych sufiksów dla nazywania szeregu wyrazów nazywających rzeczy lub osoby pełniące podobne funkcje (np. nazwy wykonawców czynności) oraz konsekwentne stosowanie końcówki -ów w dopełniaczu liczby mnogiej wszystkich rodzajów. W dalszej części referatu badaczka analizowała znaczenie języka kształtowanego i używanego przez dzieci w wieku przedszkolnym w ogólnym procesie zmian zachodzących w polszczyźnie XX i XXI wieku. Istotne w tym zagadnieniu okazały się dziecięca tendencja do nazywania rzeczy w świecie, która oparta jest na ekonomizacji języka, oraz innowacje językowe. Te ostatnie – zdaniem autorki wystąpienia – mogą wejść na stałe do języka. Wśród nich prelegentka wyróżniła: neologizmy absolutne, słowotwórcze, composita, neologizmy kontekstowe oraz neosemantyzmy. W podsumowaniu swojej wypowiedzi prof. Halina Zgółkowa zaznaczyła, że zebrany materiał ma również posłużyć do stworzenia słownika frekwencyjnego dzieci w wieku przedszkolnym. Słownik ten ma zostać porównany do swojego poprzednika, powstałego przed trzydziestoma laty.
Tematem wystąpienia następnego prelegenta – profesora Piotra Żmigrodzkiego z Instytutu Języka Polskiego Polskiej Akademii Nauk – były przewidywania dotyczące możliwych kierunków rozwoju leksykografii (polskiej i światowej) w ciągu najbliższych kilkunastu lat. Podstawą prognoz badacza był obecny stan leksykografii oraz warunku zewnętrzne dla jej rozwoju, wyznaczane przez priorytety dotyczące badań i tzw. humanistyki cyfrowej. W zasadniczej części swojego wystąpienia referent wskazał kilka prawdopodobnych kierunków rozwoju słowników w przyszłości. Jego zdaniem istnieje duże prawdopodobieństwo całkowitego wyparcia słowników papierowych przez ich elektroniczne wersje, głównie te dostępne bezpłatnie online. Przestrzeń cyfrowa ponadto umożliwia upowszechnianie się słowników amatorskich i tzw. społecznościowych, opracowywanych przez anonimowych internautów. Słowniki te powstają bez kontroli ze strony leksykografów fachowych. Profesjonaliści zaś często włączają, za pomocą sieci społecznościowych, zwykłych użytkowników języka w proces wyszukiwania „nowych słów” i tworzenia ich opisów leksykograficznych. Zjawisko to nosi nazwę crowdsourcingu i staje się coraz powszechniejsze. Profesor Żmigrodzki zaznaczył, że część z tych zjawisk ma charakter istotnie nowy, natomiast część to odnowienie w zmienionej postaci zjawisk występujących w leksykografii już przed wiekami (np. wielojęzyczne słowniki przekładowe nawiązują do XVI- i XVII-wiecznej tradycji słowników wielojęzycznych, zapoczątkowanej przez Ambrożego Calepina). W końcowej części prezentacji prelegent postawił tezę, że tradycyjna leksykografia lingwistyczna, gromadząca nową wiedzę o jednostkach języka, w dalszym ciągu jest i będzie potrzebna.
Ostatni referat, zatytułowany „Polszczyzna jako język międzynarodowy. Teraźniejszość i przyszłość”, wygłosił profesor Władysław Miodunka z Uniwersytetu Jagiellońskiego. Jego spojrzenie na język polski jako język ponadnarodowy stoi w opozycji do wizji języka polskiego jako narodowego, „jako języka narodu, który musiał się bronić przed wynarodowieniem”. Spojrzenie to zmusza – zdaniem prelegenta – do nowego ujęcia diaspory polskiej w świecie i jej znaczenia dla przyszłości języka polskiego, a także do reinterpretacji zjawiska polonizacji przedstawicieli innych narodów i zwrócenia większej uwagi na zmieniającą się moc języka polskiego w ciągu wieków. Autor przemówienia zaznaczył, że język polski pod względem liczebności użytkowników jest szóstym językiem Unii Europejskiej. Przywołana ze „Słownika współczesnego języka polskiego” pod redakcją Bogusława Dunaja definicja znaczenia przymiotnika międzynarodowy (‛istniejący między narodami; dotyczący różnych narodów; wspólny różnym narodom’) posłużyła badaczowi do określenia statusu języka polskiego w przywołanym kontekście. Zdaniem referenta o polszczyźnie jako języku międzynarodowym można dziś mówić w znaczeniu pierwszym i drugim. Międzynarodowość polszczyzny w znaczeniu trzecim to kwestia przyszłości, na której temat można dziś snuć tylko hipotezy – pesymistyczne, mniej lub bardziej realistyczne oraz optymistyczne.
Podczas ostatniej dyskusji Forum dużym zainteresowaniem cieszyła się problematyka uczenia się języka przez obcokrajowców i przez dzieci. Pytano o podobieństwa i różnice w procesie przyswajania języka oraz w mechanizmie popełniania błędów. Dyskutanci zgodnie stwierdzili, że temat ten wymaga odrębnego opracowania.
Dużym zainteresowaniem uczestników X Forum Kultury Słowa cieszyły się zajęcia warsztatowe, które odbywały się równolegle z obradami. Wśród nich znalazły się warsztaty prostej polszczyzny „Do ludzi i do rzeczy”, które prowadzili Ewelina Moroń oraz Grzegorz Zarzeczny z Uniwersytetu Wrocławskiego, czy zajęcia Sztuka mówienia, bez bełkotania i faflunienia prowadzone przez Mirosława Oczkosia ze Szkoły Głównej Handlowej w Warszawie. Prof. Elżbieta Laskowska z Uniwersytetu Kazimierza Wielkiego zaznajamiała uczestników z tematem „Etyka słowa a (nowe) media”, dr Marek Kochan zaś poświęcił swoje warsztaty „Językowemu wymiarowi wizerunku”. Zespół z Uniwersytetu Jagiellońskiego: dr hab. Kazimierz Sikora, dr Agata Kwaśnicka-Janowicz, dr Anna Jankowska oraz Katarzyna Wasilewska przybliżył uczestnikom tajniki audiodeskrypcji podczas zajęć zatytułowanych Nowe aplikacje językoznawstwa (przełamywanie barier komunikacyjnych – przyszłość audiodeskrypcji). Dodatkową możliwością rozwijania zainteresowań językoznawczych podczas trwania Forum był udział w sesjach plakatowych – Carlosa Panka Projekt Muzeum Języka Polskiego oraz Działalność SES Przedstawicieli Stowarzyszenia Etyki Słowa.
Zamykając jubileuszowe X Forum Kultury Słowa, prof. Andrzej Markowski podziękował wszystkim organizatorom, sponsorom oraz uczestnikom konferencji. Zwrócił on także uwagę na wyjątkowo trudną tematykę Forum – trudno jest orzekać o przyszłości polszczyzny w kontekście dynamiki zmian językowych. Należy jednak – zdaniem profesora – bacznie je obserwować i opisywać. Na zakończenie przewodniczący Rady Języka Polskiego zdradził miejsce oraz tematykę następnego Forum Kultury Słowa – ma ono odbyć się w Olsztynie i dotyczyć nazw własnych.
[1] Cytat ten (oraz następne) pochodzi z nagrań audio zarejestrowanych w czasie trwania Forum.
Autor sprawozdania: Mateusz Adamczyk
Tekst ukazał się w „Poradniku Językowym” (9/2016)
Zdjęcia: Sylwia Rudolf