Pojawiła się idea nowej wyszukiwarki internetowej lepszej od jaśnie nam panującej tej od korpogoogle , właściwie to nie idea ale już konkretny projekt o nazwie DataSift , pomysłodawcą jest Aditya Parameswaran z University of Illinois. Wpadł on na ciekawe rozwiązanie dotyczące trafności i wiarygodności wyników zapytań. Główną ideą projektu jest bazowanie nie na algorytmach oceniających i sortujących odpowiedzi na zadane wyszukiwarce pytanie ale na odpowiedziach ludzkich . Przykładowo zadając pytanie wyszukiwarce wyszukiwarka nie przedstawia listy wyników opartych o (niekiedy zmanipulowane) dane matematyczne ale pyta ludzi których odpowiedzi dostarczane są jako wyniki wyszukiwań. Likwiduje to mnóstwo błędów wynikających z niedoskonałości tychże algorytmów oraz co najważniejsze skraca czas wyszukiwania. Dlaczego skraca ? Otóż w przypadku szukania na przykład jakiegoś ciekawego miejsca do zamieszkania (o jakichś indywidualnych dodatkowych parametrach) w klasycznej wyszukiwarce otrzymujemy listę tych miejsc które potem musimy zweryfikować to zajmuje nam dużo czasu, DataSift dostarcza dane zweryfikowane o te dodatkowe parametry, dodatkowo dane te są zweryfikowane w sposób wiarygodny bo przez ludzi mających kontakt z danym miejscem. Należy dodać, że w/g założenia weryfikacja jest dwuetapowa i na każdym etapie weryfikacji dokonuje czynnik ludzki – informacje dostarczone od ludzi sprawdzane są przez ludzi. Następnym przykładem jest przykład szukania odpowiedzi na pytanie zadane na podstawie jakiejś grafiki/zdjęcia – ktoś (kto niekoniecznie musi się znać na tym) dysponuje urządzeniem do którego funkcjonowania potrzebne są okablowania/przewody i nie wie co to są za przewody , nie zna ich funkcjonalności a chciałby się dowiedzieć jakie kable kupić i gdzie. Przesyła więc zdjęcie i na podstawie zdjęcia które jest przesyłane do tysięcy użytkowników otrzymuje (jak już wcześniej wspomniałem zweryfikowane) odpowiedzi. 
Podobno oparcie się na takiej zasadzie wyszukiwania skraca wielokrotnie czas poświęcony na znalezienie jak najtrafniejszej odpowiedzi na zadane pytanie bo było nie było w klasycznych szukajkach nie dość, że wyniki sortuje (debilny czasami) algorytm to w wyniku jego „debilzmu maszynowego” trzeba się przebić przez starty śmieci a potem zweryfikować jeszcze te przefiltrowane informacje.
Dla mnie to w sumie fajna idea z kilku względów: raz, że zminimalizowany jest wpływ durnych maszyn, dwa – jest znikoma możliwość manipulacji a co za tym idzie wiarygodniejsze jest źródło informacji i ona sama, a co najważniejsze  powinno odciążać czasowo , znaczy zaoszczędzać czas który dla każdego jest cenny.
Zastanawia mnie jednak jedna kwestia i to chyba kwestia najważniejsza czyli finansowanie takiej wyszukiwarki bo było nie było ostateczną weryfikację danych przeprowadzać ma potężny sztab ludzi który wraz ze zwiększającą się ilością zapytań powinien też rosnąć a ludzie ci chyba za „darmoszkę” czy też „dla idei” nie będą przy tym pracować … 
Więcej o info projekcie pod tym adresem  http://www.newscientist.com/article/mg22029464.400-find-the-ungoogleable-with-crowdsourced-search-engine.html

Krzysztof Ziółkowski