Badania sieci pokazują profil użytkownika
Na naszych oczach internet dojrzewa jako medium z prawdziwego zdarzenia. Z jednej strony liczba osób deklarujących korzystanie z usług sieciowych sięga 1800 tys. (Badanie NET Track, marzec 2000), a jeśli weźmie się pod uwagę dynamikę wzrostu rejestrowaną w tych badaniach, w tym roku z pewnością przekroczy dwa miliony. W ciągu ostatnich kilkunastu miesięcy przeobraził się istotnie profil użytkowników sieci. Internet przestał być już specjalistyczną platformą komunikacji naukowców i ludzi z branży IT oraz niszową zabawką garstki komputerowych maniaków.W przeszłość odszedł powszechny do niedawna stereotyp siedzącego w dusznym laboratorium informatyka i młodocianego hakera o wiecznie podkrążonych oczach, używających usług internetowych do sobie tylko wiadomych, niezrozumiałych operacji, zapełniających listy dyskusyjne nieprzenikalnym dla zwykłego człowieka żargonem. Najdobitniej świadczy o tym zmiana w proporcji płci wśród użytkowników internetu: obecnie wynoszą one około 60:40 (dane NET Track marzec 2000 r.) na korzyść mężczyzn, podczas gdy jeszcze dwa lata temu zaplątanych w światową pajęczynę mężczyzn było cztery razy więcej niż kobiet.O tym, że polski internet staje się środkiem masowej komunikacji, można się także przekonać spoglądając nie tylko na suche parametry demograficzne, lecz także na zawartość i zaangażowane w jej dostarczanie podmioty. Coraz łatwiej znaleźć w sieci przekazy odzwierciedlające codzienne potrzeby i zainteresowania przeciętnego uczestnika komunikacji społecznej, od szerokoprofilowej informacji, przez popkulturalną rozrywkę, aż po sprzedaż dóbr konsumpcyjnych powszechnego użytku. W tym względzie najbardziej widowiskowym fenomenem jest sukcesywne pojawianie się kolejnych tzw. portali horyzontalnych, adresowanych, zgodnie z ich definicją, do masowego odbiorcy. Co znamienne, w tego typu inicjatywy angażują się firmy znane z tradycyjnego rynku mediów elektronicznych (RMF FM, Eurozet) i papierowych (Agora SA); najwyraźniej firmy te działają w sytuacji strategicznego przymusu, uznając, że na dłuższą metę nie ma innego sposobu na podtrzymanie swojej pozycji na rynku mediów. Nie trzeba wielkiej przenikliwości, by zrozumieć ukryty sens posunięć takich gigantów medialnych, jak Time Warner ? a w branży internetowej amerykańskie wzory są ostateczną wyrocznią.Wojna portali nieuniknionaBędziemy zatem w najbliższych miesiącach świadkami wielkiej wojny nowych portali (Interia, YoYo, Arena, Ahoj, portal Agory) ze starymi (Onet, WP) o miejsce na rynku, który, zdaniem specjalistów, może pomieścić dwa, góra trzy takie serwisy. To ?miejsce? to nic innego, jak szacowana wielkość możliwych do osiągnięcia przy ? danym stopniu penetracji ? zysków z reklam. Od strony finansowej bowiem przedsięwzięcia internetowe dzielą się na utrzymywane z reklam (adevrtising supported) bądź handlowe (e-commerce). Zostawmy na razie na boku te drugie, których rozwój jest na obecnym etapie dość problematyczny z uwagi na problemy natury strukturalnej (m.in. nikłe rozpowszechnienie kart kredytowych), logistycznej i nie najbogatsze tradycje dokonywania zakupów na odległość.Wchodzące w dojrzały etap rozwoju serwisy dostarczające bezpłatnej informacji i rozrywki stoją natomiast przed innym zasadniczym wyzwaniem. Jest nim konieczność prowadzenia profesjonalnych badań oglądalności, ilościowego i jakościowego szacowania uniwersum użytkowników. Bez dobrze ugruntowanej wiedzy, ilu jest internautów, jaki jest profil widowni danych witryn, nie sposób budować planów kampanii reklamowych tak, by dotarła ona do maksymalnej liczby przedstawicieli grupy docelowej; bez badań twórcy witryn nie mogą podejmować racjonalnych decyzji co do pozycjonowania własnych serwisów, ustalać optymalnych strategii marketingowych; jedno i drugie utrudnia przepływ pieniędzy od reklamodawców do medium. dokończenie na str. IIdokończenie ze str. INie można oczekiwać znacznego wzrostu wydatków na reklamę w internecie, dopóki wszyscy uestnicy procesu działają po omacku. Trudno oczekiwać od agencji reklamowych, by lokowały poważne budżety ?w ciemno?, a od poważnych inwestorów internetowych, by w dłuższym okresie angażowali się w inicjatywy dopasowywane do segmentów publiczności ?na oko?.Potrzebna metoda badawczaSytuacja komunikacyjna, w jaką angażuje swoich użytkowników internet, łączy w sobie cechy specyficzne i dla prasy, i dla radia, i telewizji; do tego dochodzi zupełnie nowa jakość, zwana ogólnikowo interaktywnością. Z drugiej strony, pomimo całego nowatorstwa, internet pozostaje wciąż medium, do którego stosują się ogólne prawa komunikacji społecznej. Stawia to przed nami konieczność wypracowania podejścia badawczego, przy jednoczesnym zachowaniu dotychczasowych rygorów metodologicznych.Zanim zajmiemy się technikami specyficznymi dla internetu (ogólnie zwanymi online), musimy wyjść od staroświeckich, wydawałoby się, badań offline, czyli po prostu tradycyjnych badań ankietowych przeprowadzanych na całej populacji. Tylko w ten sposób, niejako ?z zewnątrz?, można ustalić podstawę wszelkich zaawansowanych badań. Trzeba po prostu wiedzieć, ilu jest internautów, jakie parametry demograficzne i społeczne wyróżniają ich z populacji, jakie są ich nawyki obcowania z medium oraz (co szczególnie ważne w przypadku wirtualnej przestrzeni uobecniającej się nam poprzez systemy komputerowe) z jakiej infrastruktury korzystają. Takie solidne, ciągłe i wyczerpujące badania, dające obraz całości w jej ustawicznych zmianach, pozwalają sensownie zaprojektować program bardziej szczegółowych, ?dedykowanych?, jak to się mówi w sieciowym żargonie, badań fragmentów tej całości.Ilu i kto?W odniesieniu do pojedynczej witryny, pierwszym pytaniem, na jakie jej właściciel powinien móc odpowiedzieć samemu sobie i reklamodawcy, jest ?ile?. Ilu ludzi ogląda strony twojego serwisu, jak to się rozkłada w czasie? Choć w internecie ogólnie przyjęte jest sprzedawanie reklam bannerowych ?na odsłony? (czyli globalną liczbę wyświetleń reklamy), wiedza na temat przeciętnej dziennej lub tygodniowej emisji jakiejś strony jest kluczowa dla planowania kampanii, które mają przecież swoje ścisłe ramy czasowe. Jeśli chodzi o pomiar ruchu (taką ogólną nazwę przyjmijmy dla tego rodzaju dociekań), sprawę komplikuje jeden szczególnie zwodniczy mit. Mówi się, że administrator serwera jest w stanie podać co do sztuki i co do sekundy każdy kontakt innego komputera w sieci ze swoją maszyną, zaglądając w tak zwane logi na swoim serwerze. Cóż prostszego, jak je podsumować i ogłosić, że oto mamy niepodważalny pomiar oglądalności. Otóż nie; protokół IP, którym komunikują się komputery w sieci internet, powstał w czasach, gdy nikomu się nie śniło, że sieć wyjdzie poza bramy uniwersytetów i instytucji wojskowych. Logi na serwerze powstają jako raport z jego aktywności i tylko ją mogą odzwierciedlać. Tymczasem możliwych jest kilka sytuacji, kiedy użytkownicy sieci ściągają do swoich komputerów pliki ze stronami danej witryny, a źródłowy serwer nic o tym nie wie. Pobieranie plików z pamięci cache-serwerów postawionych przez dostawcę internetu i proxy-serwerów sieci korporacyjnych jest tego najprostszym przykładem. Żeby ograniczyć niepotrzebny ruch, maszyny te przechowują kopie ściągniętych przez pierwszego użytkownika dokumentów i kiedy pojawi się następny, chcący je obejrzeć, nie wypuszczają jego żądania ?w świat?, tylko podają mu tę właśnie kopię.Kolejnym czynnikiem zakłócającym odczyt jest fakt, że w swoich logach serwer przechowuje jako identyfikator drugiej strony tzw. numer IP komputera, który jest swego rodzaju sieciowym adresem i dowodem tożsamości. Kłopot w tym, iż w przypadku tzw. dostępu dodzwanianego (tak odbywa się większość ruchu z komputerów domowych), nasz komputer dostaje na czas sesji jeden z numerów IP będących w dyspozycji operatora (tzw. dynamiczny IP). Gdy wyjdziemy z sieci, kolejny dzwoniący internauta dostanie ten sam numer. Serwer witryny ?widzi? jeden numer, traktuje to jako aktywność jednej maszyny. Można oczywiście konwencjonalnie założyć, że jeśli przerwa między żądaniami przychodzącymi do serwera z danego numeru IP przekracza np. pół godziny, to mamy do czynienia z nowym użytkownikiem ? tak też programy analizujące logi postępują. Ale nie po to u zarania internetu amerykańscy wojskowi zlecili hippisom zaprojektowanie super elastycznej sieci komunikacyjnej, by nie dało się powyższych problemów (i innych, bardziej szczegółowych) obejść. Z grubsza rzecz ujmując, przyjęta na świecie procedura polega na umieszczaniu na stronach badanej witryny fragmentu kodu, który powoduje, że przeglądarka użytkownika ? niezależnie od sposobu, w jaki ściągnęła sobie daną stronę ? wysyła do serwera firmy badawczej sygnał zawierający standardowe dane (oprócz numeru IP datę i czas, system operacyjny, typ przeglądarki, źródło przekierowania). W ten sposób uzyskujemy dane o rzeczywistej liczbie wyświetleń danej strony. Żeby przełożyć ją na liczbę maszyn, które tę stronę sobie wyświetliły, w rozwiniętej wersji procedury stosuje się dodatkowo specjalny system znakowania komputerów za pomocą ?cookies?, czyli małych plików tekstowych ?wrzucanych? na dysk użytkownika, gdzie możemy np. umieścić niepowtarzalny numer identyfikacyjny. Jedyne, czego za pomocą takiego czy innego pomiaru ruchu nie da się zrobić, to przejść od liczby maszyn do liczby ludzi ? ale przy przyjęciu kilku rozsądnych założeń możemy ustalić wielkość widowni witryny z precyzją nie do pomyślenia w przypadku innych mediów.Skoro wiemy już ?ile?, musimy odpowiedzieć sobie na pytanie ?kto?. Najczęściej stosowane badania opierają się na prostej metodologii ankiet (nic nowego...) wyświetlanych losowo wybranym użytkownikom witryny; standardowo pyta się w nich o typowe cechy demograficzne, socjograficzne i psychograficzne, ale można też je rozbudować w zależności od specyficznych potrzeb klienta. Instytut badawczy MillwardBrown Interactive twierdzi, że ankiety wypełnia od 20 do 30 procent ludzi, którym je wyświetlono. Kluczowe w tego typu badaniach, jest poprawne ustalenie próby; trzeba sobie na przykład odpowiedzieć, jak przeprowadzić dobór losowy ? z pozoru rozsądna recepta typu ?podawać ankietę przy co setnej wizycie? kryje w sobie pułapkę nadreprezentacji tzw. heavy-userów, czyli zapalonych internautów. W każdym razie, choć technicznie proste, ankiety online (zwane pop-up surveys) wymagają solidnego przygotowania metodologicznego i opanowania warsztatu badawczego.W obu wypadkach zresztą badania, aby dostarczyć uczestnikom rynku godziwej wiedzy pozwalającej dobrze wydawać fundusze, nie mogą być powierzone ani samym właścicielom witryn (choć technicznie byliby to w stanie robić, i to tanim kosztem), ani nie mogą być rozproszone na wiele podmiotów stosujących nieco różne procedury badawcze. Mamy do czynienia z klasyczną sytuacją, kiedy potrzebne jest jedno syndykatowe badanie akceptowane przez zainteresowane podmioty jako podstawa działania. Jest to szczególnie ważne w wypadku internetu, gdzie drobne zmiany w pozornie neutralnych rozwiązaniach informatycznych i brak powszechnie przyjętej terminologii (zapytajcie paru informatyków, co to jest unique visitor) prowadzą do istotnych rozbieżności w wynikach.Zupełnie inna kwestia to badania zogniskowane na potrzebach i problemach poszczególnych inwestorów. Może to być monitoring skuteczności reklam w danej witrynie, ocena grafiki i funkcjonalności poszczególnych serwisów, badanie reakcji użytkowników na wprowadzane zmiany, dokładne pozycjonowanie portali tematycznych (tzw. vortali) i określanie potrzeb mniej lub bardziej zdefiniowanego segmentu odbiorców. Zazwyczaj wychodzi się od wyników wyżej opisanych badań wspólnych dla całej branży, by przejść do skrojonych na miarę form ankietowania online albo do specyficznie prowadzonych badań jakościowych (pogłębione wywiady indywidualne, zogniskowane wywiady grupowe). Także i tu polski internet stawia dopiero pierwsze kroki, o wiele za późno w stosunku do przejawianych ambicji.
BravoInternet Research Manager SMG/KRC Poland Media