Projektowanie AI, które faktycznie służy osobom z niepełnosprawnościami

Technology
Designing AI That Truly Serves Disabled People
Praktyczny schemat budowania sztucznej inteligencji, która słucha i szanuje potrzeby osób z niepełnosprawnościami — od wyboru zbiorów danych po projektowanie urządzeń, współtworzenie i zabezpieczenia prawne.

Kiedy usługa staje się spektaklem: krótka scena

6 grudnia 2025 roku Bhavanishankar Ravindra, twórca, który od dwudziestu lat żyje z niepełnosprawnością, opublikował krótki manifest: inżynierską mapę drogową dla AI, która „odzwierciedla, a nie sprzedaje”. Jego argumentacja jest prosta i cięta. Zbyt wiele narzędzi reklamowanych jako „dostępne” powstaje jako refleksja poniewczasie i element działań PR; przestają one działać, gdy mowa, ciało lub język użytkownika odbiegają od wyuczonej normy. Mniej więcej w tym samym czasie UNICEF wdraża pilotażowe programy dostępnych podręczników cyfrowych w kilkunastu krajach, podczas gdy eksperci ds. dostępności ostrzegają, że branżowy szum wokół generatywnej sztucznej inteligencji zachęca firmy do akceptowania „wystarczająco dobrych” zautomatyzowanych wyników, które mogą godzić w godność i niezależność.

Projekt oparty na doświadczeniu: zacząć od krawędzi

Główna teza Ravindry jest jednocześnie zasadą projektową: zacznij od krawędzi. Osoby z niepełnosprawnościami nie są nietypowymi przypadkami testowymi; są źródłem inteligencji przypadków brzegowych (edge-case intelligence), która ujawnia miejsca, w których systemy zawodzą. Tam, gdzie główny nurt AI traktuje niestandardową mowę jako „szum”, twórca żyjący z niepełnosprawnością traktuje te same sygnały jako znaczenie. Ta zmiana zmienia wszystko. Zamiast próbować wtłoczyć człowieka w oczekiwane przez model dane wejściowe, model musi być zbudowany tak, aby akceptować i czynić widocznymi własne wzorce użytkownika — metafory, wahania, rytmikę mowy — i odzwierciedlać je, zamiast zastępować gotową empatią.

W praktyce oznacza to, że projektanci powinni wdrażać funkcje takie jak odporność na zakłócenia w mowie, tolerancja dla alternatywnych kanałów wejściowych (sterowanie wzrokiem, przełączniki, urządzenia AAC) oraz semantyczna, a nie tylko powierzchniowa interpretacja języka — traktowanie przesunięć metaforycznych i powtórzeń jako sygnałów, a nie błędów. Implikuje to również logikę na urządzeniu o niskich opóźnieniach, zapewniającą prywatność i niezawodność w sytuacjach braku łączności lub dostępu do chmury.

Zasady projektowania i inżynierii, które mają znaczenie

Na podstawie wywiadów, pilotaży organizacji pozarządowych i przeglądów technicznych wyłania się pięć powtarzalnych wzorców inżynieryjnych.

  • Buduj w oparciu o ograniczenia. Narzędzia o niskim zapotrzebowaniu na pamięć, zdolne do pracy offline, wymuszają twardą priorytetyzację: jakie funkcje muszą działać, gdy nie ma sieci lub bateria jest słaba? Takie kompromisy tworzą odporne UX, a nie przeładowanie funkcjami.
  • Odzwierciedlenie zamiast symulacji. Użytkownicy potrzebują narzędzi, które odzwierciedlają ich język i strukturę emocjonalną — podkreślając wzorce, a nie udając, że czują. Odzwierciedlanie zmniejsza ryzyko projektowania przez model fałszywych intencji lub oferowania protekcjonalnych, gotowych odpowiedzi.
  • Emocja jako sygnał. Śledź rytm, powtórzenia i dryf semantyczny jako wskaźniki obciążenia poznawczego lub stresu, i przekazuj te informacje użytkownikowi w delikatny sposób; nie zamieniaj ich w nieprzejrzyste oceny ryzyka bez zgody i kontekstu.
  • Widoczność i kontrola. Pozwól użytkownikom zobaczyć, co system usłyszał i dlaczego podjął dane działanie; udostępnij łatwe wyjścia i mechanizmy odpoczynku w przypadku zmęczenia poznawczego, aby system nie uwięził użytkownika w długich, zautomatyzowanych pętlach.
  • Współprojektowanie i odpowiedzialność. Buduj rozwiązania wspólnie z organizacjami zrzeszającymi osoby z niepełnosprawnościami, opiekunami i różnorodnymi użytkownikami od pierwszego dnia. Decyzje projektowe powinny podlegać mierzalnym metrykom dostępności — traktowanym tak samo jak cele wydajnościowe czy bezpieczeństwa.

Dane, urządzenia i kompromisy w zakresie prywatności

Inkluzywne modele potrzebują inkluzywnych danych. Jest to zarówno oczywiste, jak i trudne. Większość modeli mowy i wizji trenuje się na korpusach normatywnych — wyraźnej mowie, niezasłoniętych twarzach, standardowych układach. Inicjatywy takie jak Common Voice Mozilli czy projekty takie jak Project Euphonia zostały stworzone, aby gromadzić głosy niedoreprezentowane, ale ich wdrażanie jest częściowe i powolne. Firmy polegające na pozyskiwanych bezkrytycznie, stronniczych zestawach danych będą nadal tworzyć kruche systemy.

Dwa kompromisy techniczne zasługują na podkreślenie. Po pierwsze, inferencja na urządzeniu: uruchamianie mniejszych, dobrze dostrojonych modeli lokalnie redukuje opóźnienia, chroni prywatność i pozwala użytkownikom na interakcję bez połączenia z Internetem — co jest kluczowe dla wielu użytkowników z niepełnosprawnościami oraz dla wdrożeń edukacyjnych w regionach o niestabilnej łączności. Po drugie, wybór modelu: największe modele bazowe nie zawsze są właściwym narzędziem. Wnioskowanie często zyskuje na kompaktowych, wyjaśnialnych modelach, które można audytować i ograniczać tak, aby odzwierciedlały intencje użytkownika bez halucynacji.

Standardy, pomiary i zmiana systemowa

Dostępność zbyt często pozostaje jedynie dodatkiem. Przegląd dostępności Built In oraz pilotażowe podręczniki UNICEF wskazują na te same poprawki strukturalne: dostępność musi być mierzalnym wskaźnikiem sukcesu i egzekwowanym standardem — analogicznym do WCAG dla stron internetowych, ale w odniesieniu do zachowań i interfejsów AI. Wymaga to trzech skoordynowanych elementów: wspólnych standardów dostępności AI, rutynowego włączania współpracowników z niepełnosprawnościami w cykle produktowe oraz mechanizmów regulacyjnych lub zamówień publicznych, które nagradzają inkluzywne projekty.

Pomiary mają znaczenie. Poza liczbą „wytworzonych dostępnych tekstów”, istotnymi wskaźnikami są wyniki w nauce, wskaźniki uczestnictwa, retencja, raportowane poczucie godności oraz zredukowane obciążenie poznawcze. Systemy śledzące te sygnały mogą ewoluować szybciej; systemy śledzące jedynie pobrania lub kliknięcia — nie.

Konsekwencje ekonomiczne i pracownicze

Projektowanie inkluzywnej AI nie może ignorować kwestii pracy. W różnych branżach widzieliśmy AI wykorzystywaną do uzasadniania deprofesjonalizacji i obniżek płac. Tłumaczenia są wyraźnym przykładem: tłumacze zostali zepchnięci do niskopłatnych ról związanych z postedycją przez procesy tłumaczenia maszynowego, nawet tam, gdzie procesy te obniżają jakość i pozbawiają użytkowników niuansów kulturowych. Podobna dynamika może pojawić się w obszarze dostępności: jeśli firmy zastąpią wykwalifikowanych komunikatorów, terapeutów czy pedagogów specjalnych słabo nadzorowanymi botami, szkody społeczne będą się pogłębiać.

Odpowiedzialna strategia przemysłowa łączy zatem inkluzywne projektowanie produktów z transformacją siły roboczej: przekwalifikowaniem edukatorów i specjalistów ds. dostępności do obsługi, audytowania i kurateli nad dostępną AI; finansowaniem oddolnych inicjatyw gromadzenia danych; oraz ochroną płatnych ról zapewniających jakość, kontekst i ludzki nadzór.

Praktyczna mapa drogowa dla twórców

Co inżynier lub lider produktu może zrobić już jutro?

  1. Zaproś współpracowników z niepełnosprawnościami do głównego zespołu. Wynagradzaj ich i daj im prawo do podejmowania decyzji, a nie tylko udział w testach.
  2. Priorytetyzuj inkluzywne zestawy danych. Wspieraj projekty gromadzące różnorodną mowę, wizję i ślady interakcji (np. zestawy danych o niskich zasobach, z akcentami, z mową alternatywną) lub korzystaj z ich licencji.
  3. Ustal KPI dla dostępności. Śledź miary jakościowe i ilościowe: sukces zadania w stanie zmęczenia, wskaźniki błędów dla niestandardowych danych wejściowych, postrzeganą godność i autonomię.
  4. Wybieraj małe, audytowalne modele, gdy jest to stosowne. Największy model rzadko jest najlepszy do zadań związanych z dostępnością, wymagających prywatności i niskich opóźnień.
  5. Projektuj procesy wyjścia i odpoczynku. Załóż występowanie obciążenia poznawczego i daj użytkownikom narzędzia do pauzy, eksportu lub przekazania rozmowy zaufanemu człowiekowi.
  6. Opowiadaj się za standardami zamówień i regulacjami. Jeśli nabywcy publiczni będą wymagać dostępnej AI, rynki się dostosują.

Podsumowanie: narzędzia, które są świadkiem, a nie zastępstwem

Jeśli AI ma być użyteczna dla osób z niepełnosprawnościami, musi dobrze robić dwie rzeczy, których większość dzisiejszych systemów nie potrafi: musi odzwierciedlać język i wrażliwość użytkownika oraz musi działać w ramach ograniczeń chroniących prywatność i godność. Wymaga to pokory twórcy — nie tylko zmiany technicznej, ale i politycznej: fundatorzy, zespoły produktowe i regulatorzy muszą przedłożyć inkluzywność nad najnowsze benchmarki modeli.

Plan jest prosty, ale wymagający: współprojektuj z ludźmi żyjącymi na krawędzi, inwestuj w inkluzywne dane, buduj z myślą o niskich zasobach i pracy offline, mierz rzeczywiste efekty dostępności i chroń miejsca pracy, które przekładają AI na ludzką opiekę. Zacznij od tego, a AI przestanie być spektaklem, a stanie się prawdziwym narzędziem niezależności.

Źródła

  • UNICEF (inicjatywa Accessible Digital Textbooks)
  • OpenAI (badania nad modelami generatywnymi i wdrożeniami)
  • Mozilla (zestaw danych Common Voice i działania na rzecz inkluzywnych danych)
  • Project Euphonia (zestawy danych dla nietypowej mowy)
  • Massachusetts Institute of Technology (badania nad AI i literatura dotycząca interakcji człowiek-komputer)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Jaką główną zasadę projektowania Ravindra propaguje w kontekście AI dla użytkowników z niepełnosprawnościami?
A Ravindra postuluje projektowanie „od krawędzi” (designing from the edges): należy zacząć od osób z niepełnosprawnościami jako źródeł inteligencji przypadków brzegowych, a nie jako nietypowych przypadków testowych. Model powinien akceptować i odzwierciedlać wzorce użytkowników – metafory, wahania, rytmiczną mowę – zamiast zastępować je gotową, sztuczną empatią, a także wspierać mowę zaszumioną, alternatywne metody wprowadzania danych oraz prywatność na urządzeniu.
Q Jakie jest pięć wspomnianych powtarzalnych wzorców inżynieryjnych?
A Tych pięć wzorców to: Budowanie z ograniczeń (Build from constraint), które priorytetyzuje kluczowe funkcjonalności, aby zachować użyteczność w trybie offline; Odzwierciedlenie zamiast symulacji (Reflection over simulation), dostarczające narzędzia odzwierciedlające język i emocje, a nie symulujące uczucia; Emocja jako sygnał (Emotion as signal), traktujący rytm, powtarzalność i dryf jako wskaźniki obciążenia poznawczego z odpowiednim ujawnieniem informacji użytkownikowi; Widoczność i kontrola (Visibility and control), polegające na pokazywaniu, co system usłyszał, i oferowaniu łatwych wyjść; Współprojektowanie i odpowiedzialność (Co‑design and accountability), czyli współpraca z grupami osób z niepełnosprawnościami od pierwszego dnia.
Q Jakie dwa kompromisy dotyczące danych i modeli wyróżniono w kontekście inkluzywnej AI?
A W projektowaniu inkluzywnej AI dominują dwa kompromisy: wnioskowanie na urządzeniu (on‑device inference) oraz wybór modelu. Wnioskowanie na urządzeniu wykorzystuje mniejsze, dobrze nastrojone modele lokalne, aby zmniejszyć opóźnienia, chronić prywatność i utrzymać funkcjonalność przy braku łączności. Po drugie, największe modele bazowe nie zawsze są najlepsze; kompaktowe, wyjaśnialne modele mogą być audytowane i ograniczane tak, aby odzwierciedlały intencje użytkownika bez halucynacji.
Q Jak, według artykułu, powinna być mierzona i standaryzowana dostępność?
A Dostępność powinna być mierzalnym wskaźnikiem sukcesu z powiązanymi standardami i zachętami. Artykuł postuluje stworzenie wspólnych standardów dostępności AI, rutynowe włączanie współpracowników z niepełnosprawnościami w cykle tworzenia produktów oraz dźwignie regulacyjne lub zakupowe nagradzające inkluzywne projekty, analogicznie do standardów WCAG dla stron internetowych. Istotne wskaźniki obejmują wyniki uczenia się, uczestnictwo, retencję, poczucie godności oraz zmniejszone obciążenie poznawcze.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!