Analiza ankiet w SPSS: jak uniknąć błędnych wniosków i zrobić wyniki, które przechodzą audyt
Praktyczny przewodnik po analizie ankiet w SPSS: od przygotowania danych i kodowania odpowiedzi po dobór testów, rzetelność skali, interpretację wyników oraz tworzenie tabel i wykresów, które przechodzą audyt.
Jak przygotować plik z ankietą do SPSS, żeby uniknąć chaosu w zmiennych?
Najważniejsza zasada jest prosta: jedna kolumna = jedna zmienna, jeden wiersz = jeden respondent. Już na etapie przygotowania arkusza trzeba zdecydować, co dokładnie będzie osobną zmienną w SPSS, a co tylko etykietą widoczną dla człowieka. Chaos najczęściej zaczyna się wtedy, gdy w jednej kolumnie miesza się różne informacje, wpisuje pełne odpowiedzi tekstowe tam, gdzie powinny być kody liczbowe, albo nadaje zmiennym przypadkowe nazwy.
Przed importem do SPSS warto zbudować plik tak, aby każda kolumna miała krótką, jednoznaczną nazwę techniczną, na przykład plec, wiek, q1, q2_1. Nazwy powinny być spójne, bez przypadkowych skrótów i bez zmieniania konwencji w połowie pliku. Dobrą praktyką jest też od razu ustalić etykiety zmiennych i kody odpowiedzi, na przykład 1 = kobieta, 2 = mężczyzna, zamiast wpisywania różnych wersji tekstu typu „K”, „kobieta”, „Kobieta”. Dzięki temu SPSS poprawnie rozpozna wartości, a analiza nie będzie wymagała późniejszego czyszczenia dziesiątek niespójności.
Trzeba także rozdzielić dane merytoryczne od technicznych. Identyfikator respondenta powinien być osobną zmienną, podobnie data wypełnienia, źródło badania czy wersja kwestionariusza, jeśli mają znaczenie analityczne. Nie należy umieszczać komentarzy, pustych separatorów, scalonych komórek ani dodatkowych nagłówków w środku tabeli, bo to często powoduje błędy przy imporcie i niejednoznaczne typy zmiennych.
Szczególnej uwagi wymagają pytania wielokrotnego wyboru i skale. W pytaniach wieloodpowiedziowych każda opcja powinna mieć własną kolumnę, zwykle kodowaną binarnie, na przykład 0 = nie zaznaczono, 1 = zaznaczono. W skalach odpowiedzi trzeba zachować jeden kierunek kodowania w całym pliku, żeby wyższa wartość zawsze oznaczała to samo, o ile projekt badania nie zakłada inaczej. Jeśli występują braki danych, należy przyjąć jeden sposób ich oznaczania i stosować go konsekwentnie, zamiast mieszać puste komórki, kreski, zera i opisy słowne.
Żeby uniknąć bałaganu, dobrze przygotować sobie prosty plan kodowania jeszcze przed wpisaniem danych: nazwa zmiennej, treść pytania, typ odpowiedzi, dopuszczalne wartości i sposób oznaczania braków. Taki porządek sprawia, że plik po imporcie do SPSS jest czytelny, łatwy do kontroli i nie generuje błędów wynikających z samej struktury danych, a nie z analizy.
Jak poprawnie kodować odpowiedzi i brak danych, żeby analizy nie były zafałszowane?
Podstawowa zasada jest prosta: trzeba wyraźnie oddzielić rzeczywistą odpowiedź respondenta od braku danych. W praktyce oznacza to, że każda wartość użyta w zbiorze musi mieć jednoznaczne znaczenie i nie może jednocześnie oznaczać odpowiedzi oraz braku odpowiedzi. Jeśli na przykład skala odpowiedzi ma wartości od 1 do 5, to kod 0, 8, 9, 98 czy 99 można wykorzystać na brak danych, ale tylko wtedy, gdy zostanie on konsekwentnie zdefiniowany jako brak i oznaczony w SPSS jako missing. W przeciwnym razie program potraktuje taki kod jak zwykłą liczbę i zafałszuje średnie, odchylenia, korelacje oraz testy statystyczne.
Najczęstszy błąd polega na wpisywaniu braków jako liczby mieszczącej się w zakresie skali albo pozostawianiu różnych typów braków pod jednym kodem bez opisu. Trzeba rozróżniać co najmniej to, czy respondent nie udzielił odpowiedzi, czy pytanie go nie dotyczyło. Te sytuacje mają inne znaczenie analityczne. Jeśli są wrzucone do jednego worka, łatwo błędnie obniżyć liczebność analiz albo błędnie interpretować rozkłady odpowiedzi. W SPSS warto więc stosować osobne kody dla różnych rodzajów braków, ale tylko wtedy, gdy to rozróżnienie będzie później wykorzystane i opisane.
Przy pytaniach kategorycznych należy kodować odpowiedzi zgodnie z logiczną strukturą zmiennej, a nie według wygody wpisywania danych. Dla zmiennych nominalnych liczby są tylko etykietami, więc kod 1 = kobieta, 2 = mężczyzna nie oznacza porządku ani wielkości. Dla zmiennych porządkowych kolejność kodów musi odpowiadać kolejności kategorii. Dla pytań wielokrotnego wyboru każda opcja powinna być zapisana jako osobna zmienna 0/1 albo 1/0, z jasno określonym znaczeniem, a brak odpowiedzi nie może być mylony z odpowiedzią „nie zaznaczono tej opcji”. To szczególnie ważne, bo w analizie wieloodpowiedziowej brak i świadome pominięcie opcji to nie to samo.
W przypadku pytań liczbowych najlepiej pozostawiać rzeczywiste braki jako system missing albo zdefiniowane user-missing poza zakresem sensownych wartości. Nie należy wpisywać zera, jeśli zero jest możliwą odpowiedzią, na przykład przy liczbie dzieci, wydatkach czy liczbie wizyt. Taki zabieg sztucznie zmienia rozkład i może prowadzić do błędnych wniosków o przeciętnym poziomie zjawiska.
Żeby analizy były wiarygodne, po zakodowaniu trzeba sprawdzić rozkłady wszystkich zmiennych: czy nie pojawiają się wartości spoza skali, czy liczebności braków są zgodne z oczekiwaniami i czy etykiety wartości odpowiadają dokumentacji badania. Dobrą praktyką jest też przygotowanie krótkiego słownika kodów, w którym zapisane są znaczenia wszystkich wartości, w tym braków danych. Dzięki temu w SPSS wiadomo, które wartości mają być uwzględniane w analizie, a które wyłączane, i wyniki dają się obronić metodologicznie oraz audytowo.
Jak szybko zrobić podstawowy przegląd jakości danych (outliery, braki, rozkłady)?
Najszybszy przegląd jakości danych w SPSS polega na sprawdzeniu trzech rzeczy przed właściwą analizą: braków danych, wartości odstających oraz kształtu rozkładów. Celem nie jest jeszcze „naprawianie” danych, tylko wykrycie sygnałów, które mogą zniekształcić średnie, testy istotności i wnioski z ankiety.
Braki danych najlepiej ocenić od razu na poziomie każdej zmiennej. W praktyce wystarczy sprawdzić liczebność odpowiedzi ważnych i brakujących oraz odsetek braków. Trzeba odróżnić brak techniczny od poprawnej kategorii odpowiedzi, na przykład „nie dotyczy” albo „odmowa odpowiedzi”, bo błędne zakodowanie takich wartości często prowadzi do fałszywych wyników. Jeśli odsetek braków jest mały i rozproszony, zwykle nie zmienia to interpretacji, ale gdy braki koncentrują się w konkretnych pytaniach lub grupach respondentów, trzeba to odnotować, bo może oznaczać problem z narzędziem lub zbiorem.
Wartości odstające należy sprawdzać głównie dla zmiennych liczbowych. Najprościej zrobić to przez statystyki opisowe i wykres pudełkowy. Outlier nie zawsze oznacza błąd: może być pomyłką przy wprowadzaniu danych, ale może też być prawdziwą, skrajną obserwacją. Dlatego najpierw trzeba ocenić, czy wartość mieści się w logicznym zakresie pytania. Jeśli ankietowany ma wiek 250 lat, to jest to oczywisty błąd. Jeśli wydał znacznie więcej niż inni respondenci, może to być obserwacja poprawna, ale wpływająca na średnią. W szybkiej kontroli najważniejsze jest wychwycenie wartości niemożliwych, skrajnie rzadkich i takich, które mogą dominować wynik.
Rozkłady sprawdza się po to, by zobaczyć, czy zmienne są silnie skośne, skupione na jednej kategorii albo mają bardzo małe zróżnicowanie. W SPSS wystarczą tabele częstości dla pytań kategorialnych i histogramy lub statystyki opisowe dla zmiennych liczbowych. Jeśli prawie wszyscy zaznaczyli tę samą odpowiedź, zmienna może być mało użyteczna analitycznie. Jeśli rozkład jest bardzo asymetryczny, średnia może być myląca i lepiej patrzeć także na medianę oraz kwartyle.
W praktyce szybki przegląd jakości danych można uznać za wykonany, gdy dla każdej kluczowej zmiennej wiadomo: ile jest braków, czy występują wartości poza dopuszczalnym zakresem oraz czy rozkład nie jest na tyle nietypowy, że wymaga ostrożniejszej interpretacji. To minimalny etap kontroli, który znacząco zmniejsza ryzyko błędnych wniosków i problemów w audycie analizy.
Kiedy używać analiz dla skali nominalnej, porządkowej i przedziałowej w ankietach?
Dobór analizy wynika bezpośrednio z poziomu pomiaru zmiennej, czyli z tego, jaką informację naprawdę niesie odpowiedź w ankiecie. Błąd na tym etapie prowadzi do pozornie „zaawansowanych” wyników, które są metodologicznie niepoprawne. W praktyce trzeba najpierw ustalić, czy odpowiedzi tylko rozróżniają kategorie, czy dają ich uporządkowanie, czy pozwalają też interpretować różnice między wartościami jako ilościowe.
Skala nominalna służy do zmiennych, które wyłącznie klasyfikują respondentów do kategorii bez porządku. Typowe przykłady to płeć, województwo, dział firmy, odpowiedź tak/nie, wybór marki. Dla takich danych stosuje się analizy oparte na liczebnościach i odsetkach, tabele krzyżowe oraz testy zależności dla kategorii. Nie ma tu sensu liczenie średniej, bo kody liczbowe przypisane kategoriom nie mają znaczenia ilościowego.
Skala porządkowa jest właściwa wtedy, gdy odpowiedzi da się uszeregować, ale nie wiadomo, czy odległości między kolejnymi kategoriami są równe. Dotyczy to np. ocen typu „bardzo źle – źle – neutralnie – dobrze – bardzo dobrze”, poziomu wykształcenia czy rang. W takich przypadkach należy analizować porządek odpowiedzi, medianę, kwartyle, rozkłady oraz stosować metody dla danych rangowych i testy nieparametryczne. Można powiedzieć, że wartość 4 oznacza ocenę wyższą niż 3, ale nie można automatycznie zakładać, że różnica między 4 a 3 jest taka sama jak między 2 a 1.
Skala przedziałowa ma zastosowanie wtedy, gdy wartości liczbowe mają sens ilościowy, a różnice między nimi można interpretować jako porównywalne. W analizie ankiet dotyczy to najczęściej wyników zbudowanych z wielu pozycji, indeksów, sum punktów lub zmiennych mierzonych liczbowo. Dla takich danych uzasadnione są średnie, odchylenia standardowe, korelacje Pearsona, regresja liniowa czy testy porównujące średnie, o ile spełnione są założenia danej procedury. To właśnie przy tej skali operacje arytmetyczne mają najwięcej sensu analitycznego.
Szczególnej ostrożności wymagają pytania Likerta. Pojedyncza pozycja Likerta jest z metodologicznego punktu widzenia skalą porządkową, więc bezpieczniej analizować ją jak dane rangowe. Suma lub średnia z kilku podobnych pozycji, tworzących spójną skalę, bywa w praktyce traktowana jako zmienna przedziałowa, ale tylko wtedy, gdy takie podejście jest uzasadnione konstrukcją narzędzia i jakością danych. Nie należy automatycznie uznawać każdej odpowiedzi od 1 do 5 za dane przedziałowe tylko dlatego, że zapisano ją cyframi.
Najprostsza zasada jest taka: jeśli odpowiedzi oznaczają tylko jaką kategorię wybrano, używaj analiz dla skali nominalnej; jeśli pokazują kolejność, ale nie pewną odległość między kategoriami, wybieraj analizy dla skali porządkowej; jeśli można rzetelnie interpretować różnice między wartościami, stosuj analizy dla skali przedziałowej. W ankietach poprawne rozpoznanie tej różnicy jest ważniejsze niż sam wybór programu czy testu, bo decyduje o tym, czy wnioski będą metodologicznie obronne.
Jak sprawdzić rzetelność skali (np. alfa Cronbacha) i co zrobić, gdy jest niska?
Rzetelność skali oznacza, na ile jej pozycje mierzą to samo w sposób spójny. W praktyce najczęściej sprawdza się ją współczynnikiem alfa Cronbacha. W SPSS oblicza się go przez analizę rzetelności dla zestawu pozycji, które mają tworzyć jedną skalę. Wynik interpretuje się ostrożnie: zwykle około 0,70 uznaje się za akceptowalne minimum w analizach eksploracyjnych, 0,80 i więcej za dobry poziom, a wartości bardzo wysokie, np. powyżej 0,95, mogą sugerować nadmierną podobność pytań zamiast realnie lepszej jakości skali.
Sama wartość alfa nie wystarcza. Trzeba sprawdzić też, czy wszystkie pozycje mają być liczone w tym samym kierunku. Jeśli część pytań jest odwrócona i nie została przekształcona przed analizą, alfa może wyjść sztucznie niska. Warto również przejrzeć korelacje pozycja–skala oraz tabelę alfa po usunięciu pozycji. Jeżeli konkretne pytanie słabo koreluje z resztą lub po jego usunięciu alfa wyraźnie rośnie, to sygnał, że pozycja może być niejednoznaczna, źle zakodowana albo mierzyć inny aspekt niż pozostałe.
Niska alfa nie zawsze oznacza „złą skalę”. Częstą przyczyną jest to, że skala nie jest jednowymiarowa, czyli miesza kilka różnych konstruktów. Wtedy zamiast poprawiać wynik mechanicznie, trzeba najpierw sprawdzić, czy pozycje rzeczywiście powinny tworzyć jedną wspólną skalę. Jeżeli nie, należy rozdzielić je na podskale zgodne z treścią i dopiero dla każdej z nich ocenić rzetelność osobno.
- Sprawdź kodowanie pozycji – zwłaszcza pytania odwrócone; błędne kierunki odpowiedzi bardzo często zaniżają alfę.
- Przejrzyj statystyki dla pozycji – niska korelacja pozycji z wynikiem skali lub wzrost alfa po usunięciu pozycji wskazuje element problematyczny.
- Oceń spójność treściową – usuń tylko te pytania, które są niejasne, źle działają empirycznie i nie pasują do definicji konstruktu; nie usuwa się pozycji wyłącznie po to, by „podbić” wskaźnik.
- Sprawdź jednowymiarowość – jeśli skala ma kilka wymiarów, podziel ją na sensowne podskale zamiast liczyć jedną alfę dla wszystkiego.
Trzeba też pamiętać, że alfa zależy nie tylko od spójności pozycji, ale również od ich liczby. Krótkie skale, np. 2–4 pozycje, często mają niższą alfę nawet wtedy, gdy są użyteczne. Dlatego interpretacja powinna uwzględniać liczbę pytań i sens merytoryczny narzędzia, a nie opierać się na jednym progu.
W raporcie warto podać: wartość alfa, liczbę pozycji, informację o ewentualnym odwróceniu kodowania, decyzje dotyczące usunięcia pozycji oraz krótkie uzasadnienie. Jeżeli rzetelność pozostała niska mimo kontroli jakości danych, uczciwym wnioskiem jest ograniczone zaufanie do wyniku skali i ostrożna interpretacja dalszych analiz opartych na tym wskaźniku.
Jak dobrać test statystyczny do pytania badawczego w badaniach firmowych i akademickich?
Dobór testu statystycznego zaczyna się nie od programu, ale od pytania badawczego. Najpierw trzeba ustalić, czy chcesz: porównać grupy, sprawdzić związek między zmiennymi, ocenić wpływ jednej zmiennej na drugą czy przewidywać wynik. Dopiero potem dobiera się test do typu zmiennych i układu danych: skala pomiaru, liczba grup, niezależność lub powiązanie obserwacji oraz spełnienie założeń.
W praktyce najważniejsze są cztery pytania: jaka jest zmienna zależna, jaka jest zmienna objaśniająca, ile jest grup lub pomiarów oraz czy dane są niezależne. Jeśli porównujesz średnie wyniki dwóch niezależnych grup, zwykle stosuje się test t-Studenta dla prób niezależnych. Jeśli te same osoby badano dwa razy, właściwy będzie test t dla prób zależnych. Gdy grup jest więcej niż dwie, standardem jest analiza wariancji ANOVA. Jeśli zamiast średnich analizujesz zależność między kategoriami, właściwy bywa test chi-kwadrat. Dla związku między dwiema zmiennymi ilościowymi stosuje się korelację Pearsona, a gdy dane są porządkowe albo nie spełniają założeń normalności — korelację Spearmana.
| Pytanie badawcze | Typ danych | Typowy test |
|---|---|---|
| Czy dwie niezależne grupy różnią się wynikiem? | Zmienna zależna ilościowa, 2 grupy | test t-Studenta dla prób niezależnych |
| Czy ten sam badany zmienił wynik między pomiarem 1 i 2? | Zmienna ilościowa, pomiary powiązane | test t dla prób zależnych |
| Czy trzy lub więcej grup różni się średnim wynikiem? | Zmienna ilościowa, 3+ grup | ANOVA |
| Czy dwie zmienne kategoryczne są ze sobą związane? | Dane nominalne/porządkowe w tabeli liczebności | chi-kwadrat |
| Czy dwie zmienne ilościowe są ze sobą skorelowane? | Dane ilościowe | korelacja Pearsona |
| Czy istnieje monotoniczna zależność przy danych porządkowych lub nienormalnych? | Dane porządkowe lub niespełnione założenia parametryczne | korelacja Spearmana |
Kluczowe jest też rozróżnienie między testami parametrycznymi i nieparametrycznymi. Parametryczne stosuje się zwykle dla zmiennych ilościowych, gdy rozkład jest zbliżony do normalnego, wariancje są porównywalne, a obserwacje spełniają warunek niezależności. Gdy te założenia nie są spełnione, bezpieczniej użyć odpowiedników nieparametrycznych, np. testu Manna-Whitneya zamiast testu t dla grup niezależnych, testu Wilcoxona zamiast testu t dla prób zależnych czy testu Kruskala-Wallisa zamiast jednoczynnikowej ANOVA.
W badaniach firmowych i akademickich najczęstszy błąd polega na dobieraniu testu do formatu raportu, a nie do logiki pytania. Na przykład skale Likerta bywają analizowane jak dane ilościowe, choć przy pojedynczych pozycjach część analiz wymaga większej ostrożności. Dlatego przed wyborem testu warto sprawdzić, czy analizujesz pojedyncze pytanie ankietowe, indeks z wielu pozycji, zmienną dychotomiczną czy wynik ciągły.
Jeśli pytanie ma charakter wyjaśniający lub predykcyjny, zamiast prostego testu porównawczego lepszy może być model regresji. Regresję liniową stosuje się dla zmiennej zależnej ilościowej, a regresję logistyczną dla wyniku binarnego, np. zakup/bez zakupu, zdał/nie zdał. To ważne, gdy trzeba jednocześnie kontrolować kilka zmiennych, np. płeć, wiek, dział firmy lub poziom doświadczenia.
Poprawny dobór testu oznacza więc dopasowanie metody do celu analizy, rodzaju zmiennych, liczby grup, zależności między obserwacjami i założeń statystycznych. Jeżeli te elementy są jasno określone przed analizą w SPSS, ryzyko błędnych wniosków i zakwestionowania wyników w audycie wyraźnie maleje.
Jak poprawnie interpretować istotność, efekt i przedziały ufności w raportowaniu?
Te trzy elementy opisują różne aspekty wyniku i nie powinny być traktowane zamiennie. Istotność statystyczna odpowiada na pytanie, czy obserwowany wynik jest na tyle mało prawdopodobny przy założeniu braku efektu, że odrzucamy hipotezę zerową. Najczęściej ocenia się ją przez wartość p. Jeśli p < 0,05, wynik uznaje się za istotny statystycznie, ale nie oznacza to automatycznie, że jest ważny praktycznie, silny albo użyteczny biznesowo.
Wielkość efektu pokazuje, jak duża jest różnica lub zależność. To kluczowy element interpretacji, bo dwa wyniki mogą być tak samo istotne statystycznie, a jednocześnie bardzo różnić się znaczeniem praktycznym. W zależności od testu mogą to być np. Cohen d, eta kwadrat, r, iloraz szans lub samo oszacowanie różnicy średnich czy różnicy odsetków. W raporcie należy podać nie tylko informację, że „wynik był istotny”, ale także jak duży był efekt.
Przedział ufności pokazuje zakres wartości zgodnych z danymi dla oszacowanego parametru, najczęściej na poziomie 95%. Jest on ważny z dwóch powodów: pokazuje kierunek i możliwy rozmiar efektu oraz informuje o precyzji oszacowania. Wąski przedział oznacza większą precyzję, szeroki — większą niepewność. Jeśli 95% przedział ufności dla różnicy średnich obejmuje 0, to wynik zwykle nie jest istotny statystycznie na poziomie 0,05. Jeśli nie obejmuje 0, jest to zgodne z istotnością. Dla ilorazów szans lub ryzyka analogicznie sprawdza się, czy przedział obejmuje 1.
Poprawne raportowanie polega więc na łącznym odczycie tych trzech informacji. Samo p nie wystarcza, bo mówi tylko o zgodności danych z hipotezą zerową. Wielkość efektu mówi o skali zjawiska, a przedział ufności — na ile stabilne i precyzyjne jest to oszacowanie. Dopiero razem pozwalają stwierdzić, czy wynik jest jednocześnie statystycznie wykrywalny, praktycznie znaczący i wiarygodnie oszacowany.
- Nie pisz tylko: „wynik istotny statystycznie”. Pisz: jaka była różnica lub zależność, jak duży był efekt i jaki był przedział ufności.
- Nie utożsamiaj braku istotności z brakiem efektu. Może to oznaczać także zbyt małą próbę albo zbyt dużą niepewność oszacowania.
- Nie utożsamiaj istotności z ważnością praktyczną. Przy dużej próbie nawet bardzo mały efekt może dać niskie p.
- Interpretuj przedział ufności merytorycznie. Jeśli obejmuje zarówno wartości trywialne, jak i istotne praktycznie, wniosek powinien być ostrożny, nawet przy istotności statystycznej.
W praktyce poprawny zapis wygląda np. tak: „Różnica średnich wyniosła 4,2 punktu, 95% PU: 1,1 do 7,3, p = 0,008, efekt umiarkowany”. Taki zapis jest audytowalny, bo oddziela trzy kwestie: czy wynik jest statystycznie istotny, jak duży jest efekt i z jaką precyzją został oszacowany.
Jak przygotować tabele i wykresy w SPSS tak, by były czytelne w publikacji lub raporcie?
Czytelność tabel i wykresów z SPSS zależy przede wszystkim od tego, czy prezentują jedną, jasno określoną informację i czy da się je odczytać bez zaglądania do składni analizy. Domyślne wyniki z Output Viewer rzadko nadają się do publikacji bez edycji, ponieważ zawierają zbyt wiele technicznych elementów, skrótów i niepotrzebnych danych. Przed eksportem warto uprościć tytuły, opisać zmienne pełnymi nazwami, ujednolicić liczbę miejsc po przecinku oraz usunąć kolumny, które nie są potrzebne odbiorcy, na przykład techniczne identyfikatory kategorii lub powtarzalne sumy.
W tabelach najważniejsze jest, aby odbiorca od razu widział, co porównuje, w jakiej grupie i na jakiej podstawie liczbowej. Dlatego nazwy wierszy i kolumn powinny być jednoznaczne, a pod tabelą lub w nagłówku trzeba wskazać liczebność próby, jeśli ma znaczenie interpretacyjne. Dobre praktyki to także podawanie jednostek, konsekwentne formatowanie wartości procentowych i zaokrągleń oraz oddzielanie wyników opisowych od inferencyjnych. Jeśli tabela zawiera test statystyczny, należy pokazać tylko te statystyki, które są potrzebne do oceny wyniku, bez nadmiarowych pozycji generowanych automatycznie przez SPSS.
W przypadku wykresów kluczowe jest dopasowanie typu wykresu do rodzaju danych. Do porównań kategorii lepiej sprawdzają się proste wykresy słupkowe niż wykresy 3D, które zniekształcają odczyt. Dla rozkładów zmiennych ilościowych użyteczne są histogramy lub wykresy pudełkowe, a dla zależności między dwiema zmiennymi ilościowymi wykresy rozrzutu. Należy unikać efektów dekoracyjnych, zbędnych cieni, intensywnych kolorów i nadmiaru siatki, ponieważ obniżają czytelność. Osie powinny być opisane pełnymi nazwami wraz z jednostką, a skala nie może sugerować różnic większych, niż wynikają z danych.
W SPSS warto edytować obiekty bezpośrednio w Chart Editor i Pivot Table Editor, zamiast eksportować je w surowej postaci. Trzeba poprawić czcionki, wielkość etykiet, kolejność kategorii oraz legendę. Jeśli legenda powiela informacje widoczne na osi, należy ją usunąć. Jeżeli etykiety odpowiedzi są długie, często lepiej zastosować układ poziomy niż pionowy, bo poprawia to odczyt. W publikacji lub raporcie każda tabela i każdy wykres powinny być zrozumiałe samodzielnie, czyli zawierać tytuł mówiący, co przedstawiają, oraz oznaczenia pozwalające odczytać wynik bez odwoływania się do tekstu głównego.
Najkrócej: dobry materiał z SPSS do raportu to nie zrzut ekranu z outputu, tylko opracowana forma prezentacji danych. Powinna być uproszczona, spójna wizualnie, opisana pełnym językiem i ograniczona do informacji, które rzeczywiście wspierają wniosek analityczny.