Jutro dostaję OPUSa. Jestem umówiony na godzinę 12 na programowanie procesora. Powiedziano mi, że działa on na innych zasadach niż TEMPO+, więc dostanę zupełnie nowy program. Ponoć da się go przepisać ze starego procesora, ale najprawdopodobniej i tak będzie trzeba dokonać poprawek. Jestem bardzo ciekaw, jakie będą moje pierwsze wrażenia. Aż wracam wspomnieniami do wydarzeń sprzed roku…
Cyborg pisał, że kilka osób już zauważyło u niej zmianę w wymowie. U mnie też tak było. Przez kolejne miesiące różni ludzie twierdzili, że mówię czyściej, wyraźniej, że barwa głosu się poprawiła, jest dynamiczniejsza, itd., itp. Nie mówiłem wcześniej źle, ale dobrze było wiedzieć, że mówię coraz lepiej.
W zasadzie był tylko jeden problem. O ile wcześniej mówiłem zawsze tak samo z powodu braku kontroli słuchowej, teraz muszę słyszeć, by wyraźnie coś powiedzieć. W ciągu kilku pierwszych miesięcy mogłem spokojnie rozmawiać bez procesora, a nawet bez aparatów słuchowych. Od jakiegoś czasu, tak mniej więcej od trzech miesięcy, już nie mogę. Zapomniałem, jak się mówi nie słysząc siebie. Mi się wydaje, że mówię tak samo, jak wcześniej, ale gdy zdejmuję procesor, staje się coś dziwnego. Czuję, że mówię… ale nie słyszę!
Czasem zdarza mi się, że baterie wysiądą w trakcie jakiegoś spotkania, rozmowy, albo czegoś podobnego, a ja nie mam zapasowych. Mogę wtedy kontynuować, ale muszę zdwoić, czy nawet potroić wysiłki, by kogoś zrozumieć. A gdy zaczynam mówić, ludzie mnie szturchają, że mówię za cicho i nie wiedzą, co mówię. Że dziwnie mówię.
Kontrola słuchowa to zadziwiająca rzecz. Człowiek słyszący słyszy, jak mówi i po prostu mówi tak, by był dobrze słyszany. Człowiek niesłyszący jest edukowany, rehabilitowany i ćwiczony tak, by mógł mówić. Jednym udaje się to lepiej, innym gorzej, ale często jest to efekt wyuczony, niezależny od używania aparatów słuchowych.
No, może jakaś kontrola jest, ale w moim przypadku była ona poważnie ograniczona moimi możliwościami słuchowymi. Na przykład dopiero teraz umiem szeptać! To, co wcześniej mi się wydawało być szeptem, nie było nim. Dopiero teraz też słyszę, że faktycznie jak nie chce mi się ładnie mówić, wszystkie te głoski znikają i są niesłyszalne, co utrudnia zrozumienie.
No i jeszcze na dodatek zaczynają się problemy z czytaniem z ust. Coraz mniej z tego korzystam i zapominam, jak to się robi. W sumie teraz jestem w takim etapie przejściowym. Jeszcze całkiem nie rozumiem ze słuchu, ale też nie potrzebuję już właściwie czytać z ust.
W każdym razie wychodzi na to, że bez implantu ani rusz. Ani nic usłyszeć, ani cokolwiek powiedzieć.
Uzależniam się coraz bardziej.
wow. nie możemy się doczekać relacji :-)
Bartku pozwól że odniosę się do tego co pisałeś o mówieniu bez implantu na uchu. Otóż u swojego dziecka zauważyłam że rano gdy nie ma jeszce implantu na uchu i przykładowo woła mnie to wychodzi to bardzo niewyraźnie. Ma wówczas taki piskliwy, nienaturalny głosik. I taki niepewny, jakby się wahała. To się zmienia zaraz po założeniu implantu. Wtedy “mama” brzmi już normalnie, pewnie. O rozumieniu bez implantu nie będę wogóle pisać bo mała nie czyta z ust i absolutnie nic nie rozumie jak nie ma podłączonego procesora. Chociaz myslę czasami że takie czytanie z ust mogłoby być jej przydatne.
Myślę, że jeżeli w ogóle nie czyta z ust, to widocznie ma aż takie korzyści z implantu, że nie jest jej to potrzebne. Wygląda na to, że wszystko odbiera drogą słuchową.
A ile lat ma Beatka?
2 latka i siedem miesięcy. U takiego malucha trudno mówić o nawykach ale przez implantacją jeszcze w aparatach częściej patrzyła mi na usta. Taka bardziej uważna była. Może to wynikało z mniejszej jak na tamte czasy ruchliwości. Ale wtedy potrafiła odczytać z ust takie słowa jak: mama, nie, tak, papa. Teraz wszystko zapomniała nic nie odczyta.
Nie dziw się. Ja mam to samo. Co prawda nigdy nie umiałem czytać tylko z ust — jednocześnie musiałem i widzieć, i słyszeć przez aparat, niemniej z rodziną, nie mając aparatu, jakoś się dogadałem.
Teraz nie wiem nic, patrząc na usta nie rozumiem własnych dzieci. A miałem przecież dwudziestoletnią “praktykę”.
Mało tego — mając tylko aparat /implant wyłączony/, patrząc uważnie na twarz, rozumiem może 10–15% tego co dawniej.
Wniosek oczywisty — mózg, mając lepsze informacje z ucha implantowanego, pomija po prostu całą resztę. Traktuje to jak śmieci niewarte uwagi.
Pierwsze takie objawy zaobserwowałem gdzieś tak po 3–4 miesiącach.
Mama Beatki: W ogóle to możecie Beatce i sobie pogratulować, że normalnie odbiera mowę na drodze słuchowej. Marzenie wszystkich rehabilitantów i implantowanych. Tak sobie myślę, że umiejętność porozumiewania się bez procesora zawsze się jednak przyda, nie mówię już że mogą się skończyć baterie albo coś wydarzyć, ale chociażby na basenie. Jeśli mogę coś zasugerować, to może dobrze by było rozmawiać z Beatką również wtedy, kiedy nie jest “podłączona”, na przykład przy kąpieli, i skłonić ją do tego, żeby chociaż trochę nauczyła się czytać z ust.
Witam. Cyborg próbowaliśmy rozmawiać z nią właśnie podczas kąpieli. Ale jak już uda się złapać z nią kontakt wzrokowy i ona widzi że coś mówimy od razu pokazuje na ucho, pokazuje że nie ma implantu. Oczywiście nie możemy jej wówczas założyć co kończy się płaczem z jej strony. Tak więc poprzestaliśmy prób.
Beatce pogratuluję , nam nie ma czego to jej sukces. My nie robimy nic nadzwyczajnego, po prostu bawimy się z nią, dużo rozmawiamy.
Cóż. Kiedy uzna, że jest jej to potrzebne, to się nauczy ;-) A najważniejsze już ma.
Ja z kolei mam teraz tak, że jak nie mam procesora, to domownicy żądają jego założenia, bo inaczej nie będzie im się chciało ze mną rozmawiać ;-)
hahaha Bartek wygodni się zrobili. Ale uwierz mi z pozycji osoby słyszącej która ma w swoim otoczeniu implantowca komunikacja jest o niebo łatwiejsza. Łapię się na tym że kiedyś jak Beatka miała aparaty zawsze, ale to ZAWSZe pamiętałam by stać do niej odpowiednio ustawiona teraz czasami przyłapuję się że stoję byle jak, bokim ‚tyłem. Kiedys rozmawialiśmy z mężem przy Beatce o rzeczach zakazanych dla jej uszu np że nie kupimy jej kolejnej płyty Teletubisiów teraz takie tematy musimy omawiać w ukryciu bo ona nas po prostu podsłuchuje.
Zabawne, jak to wszystko zależy od punktu widzenia. Podsłuchiwania nie lubimy, ale jak implantowicz albo aparatowany podsłuchuje, to się cieszymy z sukcesów w rehabilitacji ;-)
Podsłuchiwanie… A przyszło Wam kiedyś do głowy, że właściwie nic nie stoi na przeszkodzie, żeby wyposażyć procesor w możliwości, jakich normalnie słyszący człowiek nie ma? Jakiś superczuły mikrofon, albo łączność bezprzewodowa z czymś (takie przystawki do procesora zresztą już są), albo coś. Cyborgizacja.
Ja na ten przykład się podłączyłem do komputera poprzez system FM — wszystko bezprzewodowo. Ciekawe, kiedy badania zaczną iść w tym kierunku — prócz rehabilitacji dodatkowe opcje — wbudowane radio, dyktafon, telefon… w końcu mikrofon już jest, a transmiter będzie odbiornikiem ;-)
Tylko co z wybieraniem numerów? ;-)
Teoretycznie żaden problem — vide aparat słuchowy Oticon Epoq.
Cóż stoi na przeszkodzie, aby procesor mowy był tak, albo i lepiej, wyposażony?
Mirek: w sumie nic. Widziałam reklamówkę “przystawek” do procesorów Cochleara (Freedom i nie tylko), między innymi była przejściówka, która umożliwia zrobienie z procka słuchawki bluetooth, czy może połączenie go z takową, już nie pamiętam dobrze, w każdym razie coś do łączenia z telefonami komórkowymi po BT było. O systemach FM nie wspominam, bo teraz to już banał.