7.4 Metody badania kosztów poznawczych

Zaangażowanie zasobów systemu poznawczego mierzy się dziś przede wszystkim wykorzystując paradygmat zadania podwójnego (Pashler i Johnston, 1998). Brak zgodności odnośnie charakteru zasobów uwagi spowodował, że stosowano niezwykłą wprost liczbę kombinacji zadań w tym paradygmacie, aby wykluczyć możliwość jednoczesnego wykonywania dwóch zadań poznawczych bez ponoszenia z tego tytułu kosztów. Stosowano więc wszystkie możliwe kombinacje zadań angażujących różne receptory, różne kody przetwarzania informacji czy też różne efektory. Niestety wyniki tych wszystkich prób nie doprowadziły do sformułowania jednoznacznych wniosków potwierdzających któreś z istniejących stanowisk teoretycznych.

Inną logikę eksperymentalną zaproponował Vandierendonck, DeVoight i Van Der Gotten (1998) w zadaniu generowania interwałów losowych. Paradygmat ten inspirowany był procedurą generowania ciągów liter bądź liczb losowych (Baddeley, 1996; Barbasz, Stettner, Wierzchoń, Piotrowski i Barbasz, 2008). Zadanie to było jednak krytykowane ze względu na fakt, iż wykonywanie go wymaga jednoczesnego zaangażowania centralnego systemu wykonawczego oraz pętli fonologicznej (wymagało bowiem przetwarzania materiału werbalnego, który angażował ten podsystem). Zadanie zaproponowane przez Vandierendoncka i współpracowników (1998; Vandierendonck, 2000; Wierzchoń i Piotrowski, 2003) polega na generowaniu nierytmicznych, losowych reakcji manualnych (nie angażuje więc ono pętli fonologicznej). W standartowej procedurze osoby badane są proszone o nierytmiczne, losowe klikanie w przycisk myszki. Wychodząc z założenia, że zachowania losowe są przeciwieństwem zachowań automatycznych, a także faktu, iż zachowań losowych nie da się wyuczyć (co wynika z samej ich natury), można przyjmować, iż zadanie to silnie angażuje funkcje centralnego systemu wykonawczego.

Przyjmując założenie teorii Baddeleya (2001), zgodnie z którym centralny system wykonawczy jest zaangażowany w przetwarzanie każdej czynności wymagającej zasobów pamięci roboczej, zadanie generowania interwałów losowych, powinno angażować jedynie ten system, nie wykorzystując jednocześnie zasobów żadnego z podsystemów pamięci roboczej (byłoby to więc zadanie pozwalające na oszacowanie niespecyficznych kosztów przetwarzania informacji). Brak interferencji lub nieznaczna interferencja w sytuacji wykonywania wraz z zadaniem generowania interwałów losowych innego zadania angażującego centralny system wykonawczy nie będzie więc świadczył w takim przypadku o istnieniu odrębnej puli zasobów. Ponieważ zadanie generowania interwałów losowych jest niezwykle angażujące dla systemu poznawczego człowieka – można zakładać, że w sytuacji braku interferencji lub nieznacznej interferencji zadanie wykonywane jednocześnie z nim wymaga stosunkowo niewielkiego zaangażowania systemu poznawczego (wywołuje nieznaczne koszty poznawcze), co jak zostanie wykazane w kolejnym rozdziale przemawia za automatycznym charakterem tej czynności.

Poziom interferencji, a przez to koszty poznawcze wykonywania zadania głównego, mierzy się nie tylko analizując poziom jego wykonania, ale również stopień odchylenia od losowości generowanych interwałów (zakłada się tu, że im bardziej wykonanie odchylone jest od poziomu losowego tym bardziej wymagające jest zadanie główne). W literaturze zaproponowano wiele procedur obliczania wskaźników losowości (por. Towse i Neil, 1998; Vandierendonck, 2000). Analizę wykorzystywanych w badaniach wskaźników oraz propozycję redukcji ich liczby można odnaleźć w pracy Barbasza i współpracowników (2008). W eksperymentach opisanych w tej książce zastosowano wskaźnik generowania interwałów losowych zaproponowany przez Piotrowskiego (por. opis w Wierzchoń i Piotrowski, 2003; Piotrowski, 2004).

Podsumowując, jeżeli zastosujemy zadanie generowania interwałów losowych jednocześnie z zadaniem wymagającym zaangażowania funkcji wykonawczych pamięci roboczej, wystąpi efekt interferencji (niespecyficzne koszty poznawcze). Brak interferencji lub niski poziom interferencji świadczyć może o niezależności wykonania zadania głównego od zasobów centralnego systemu wykonawczego, a przynajmniej o niewielkich wymaganiach poznawczych stawianych przez to zadanie (niskich kosztach poznawczych).

Baddeley (2001) opisując funkcjonowanie pamięci roboczej zwraca uwagę na dwa rodzaje jej możliwych ograniczeń. Pierwsza grupa ograniczeń jest związana z wysiłkowością przetwarzania (ograniczenia tego typu związane z ograniczoną pulą zasobów systemu poznawczego zostały opisane powyżej). Drugą grupę (związaną zresztą z pierwszą), można opisać odwołując się do czasu przetwarzania informacji. Tak rozumiana efektywność przetwarzania informacji w pamięci roboczej jest zdaniem Baddeleya (2001) związana z jednej strony z czasem retencji (przechowywaniem pasywnym) a z drugiej z szybkością odświeżania informacji w pamięci roboczej (przechowywaniem aktywnym).

W związku z ograniczoną pojemnością pamięci roboczej (Miller, 1956; Baddeley, 1996; Oberauer 2002; McErlee, 2001; Piotrowski, 2004) określając charakter jej zaangażowania w proces przetwarzania informacji, można stosować odmienną niż w przypadku zadania podwójnego logikę eksperymentalną. Manipulując charakterem (np. poziomem złożoności) bodźców lub czasem ich prezentacji można określić sposób przetwarzania informacji w pamięci roboczej. Odnosząc się do problemu charakterystyki przetwarzanych bodźców, Baddeley (1996) zauważa, że jesteśmy w stanie przechowywać więcej krótszych niż dłuższych słów. Związane jest to jego zdaniem z koniecznością powtarzania słów w pętli artykulacyjnej, co w przypadku dłuższych słów zabiera więcej czasu. Taka obserwacja potwierdza występowanie czasowych ograniczeń przetwarzania informacji w pamięci roboczej związanych z charakterystyką bodźców.

Niezwykle interesujący z punktu widzenia niniejszej pracy wydaje się problem charakterystyki przetwarzania informacji w pamięci roboczej, w zależności od czasu prezentacji bodźców. Prezentacja serii bodźców przez krótki okres czasu powoduje, iż nie mogą zostać one przesłane do podsystemów pamięci roboczej. W takiej sytuacji nie mogą być one przetwarzane sekwencyjnie w pętli fonologicznej (Nęcka, Orzechowski i Florek, 2001; Szymura i Jagielski, 2003). Inną, teoretyczną konsekwencją presji czasu może być utrudnione przesyłanie informacji poprzez bufor epizodyczny do pamięci długotrwałej. W takiej sytuacji należałoby się spodziewać gorszych efektów zapamiętywania prezentowanego pod presją czasu materiału. Odnosząc te rozważania do problemu powstawania kosztów poznawczych należy podkreślić, iż szybka prezentacja bodźców może powodować dwojakiego rodzaju koszty poznawcze: „percepcyjne” oraz „wykonawcze”. Koszty „percepcyjne” mogą występować, gdy prezentacja bodźców następuje tak szybko, że pomimo dostrzeżenia bodźców nie mogą być one zanalizowane (koszty tego typu nie są bezpośrednio związane z przetwarzaniem informacji przez centralny system wykonawczy, lecz wynikają z własności strukturalnych systemu poznawczego). Zakładając, iż bodźce są prezentowane wystarczająco długo, aby każdy mógł zostać zanalizowany, ale jednocześnie nadal pod presją czasu, można spodziewać się występowania kosztów „wykonawczych”. Koszty tego typu związane być mogą z ograniczeniami przetwarzania informacji (retencja, odświeżanie informacji). Mają więc one nieco inny charakter, niż koszty wynikające z wykonywania zadania w paradygmacie zadań jednoczesnych, wynikają bowiem z ograniczeń przetwarzania informacji, a nie konieczności synchronizowania wykonywania dwóch zadań. Opisana logika eksperymentalna pozwala również na określenie efektywności przetwarzania informacji przy ominięciu trudności związanych z różnorodnymi możliwościami wyjaśniania wyników uzyskanych z wykorzystaniem paradygmatu zadania podwójnego.

Podsumowując, w celu określenia stopnia wysiłkowości danego zadania można zastosować paradygmat zadania podwójnego. Jeżeli w charakterze zadania dodatkowego zastosowane zostanie zadanie generowania interwałów losowych, możliwe jest oszacowanie stopnia zaangażowania centralnego systemu wykonawczego w wykonywanie zadania głównego, a zatem oszacowanie niespecyficznych kosztów poznawczych. Koszty przetwarzania informacji mogą zostać również oszacowane przy wykorzystaniu paradygmatu szybkiej prezentacji. Dzięki temu zadaniu możliwe jest oszacowanie kosztów „percepcyjnych” oraz kosztów „wykonawczych” związanych z ograniczeniami możliwości przetwarzania informacji przez centralny system wykonawczy.

AutorMichał Wierzchoń
RecenzentMarcin Koculak

Opublikowano:
7 września 2018

SPIS TREŚCI
PDF

LITERATURA CYTOWANA

TAGI

CZYTAJ TEŻ