Bitwa na neurony, czyli sztuczna inteligencja w sprzedaży


Od porażki Garri’ego Kasparova z superkomputerem Deep Blue minęło już ponad 20 lat. Możemy ten moment uznać za początek ery sztucznej inteligencji, ale w kwestii tego kto napiszę tę historię, zdania są podzielone. W naszych produktach wykorzystujemy metody AI i dostarczamy naszym klientom jakość na nich opartą. Przybliżmy więc kilka podstawowych zagadnień związanych ze sztuczną inteligencją.

W głowach konsumentów obraz sztucznej inteligencji tworzy się raczej pod wpływem popkultury, niż nauki. Takie filmy i seriale jak Westworld, Ex Machina, klasyczna już Odyseja kosmiczna 2001, czy ukochany Terminator sprawiają, że na hasło „sztuczna inteligencja” ciekawość miesza się z przerażeniem.

Gdzie szukać sztucznej inteligencji?

Sztuczna inteligencja jako dziedzina nauki zaczyna się w połowie ubiegłego wieku i związana jest z nazwiskami Alana Turinga (polecamy filmy Gra TajemnicEx machina!) i Johna MacCarthy’ego. Najprościej rzecz ujmując, w idei sztucznej inteligencji chodzi o to, aby wytwory człowieka zachowywały się, uczyły się i rozwiązywały problemy, tak jak człowiek. Albo lepiej niż człowiek. Bo, o ile sami siebie za włosy podnieść nie potrafimy (ani fizycznie, ani intelektualnie), to znamy sposoby zwiększania wydajności urządzeń w skali, która jest przez ludzkie ciała i umysły nieosiągalna. W najbardziej ambitnej koncepcji „silnej sztucznej inteligencji”, maszyny zdolne byłyby nawet do odczuwania ludzkich emocji i wykazywania zachowań impulsywnych. Wróćmy jednak do tu i teraz.

Żeby zrozumieć, czym w rzeczywistości jest sztuczna inteligencja, posłużmy się poniższym schematem:

Zbiór wszystkich algorytmów służących rozwiązywaniu problemów powszechnie kojarzonych z ludzką inteligencją, a realizowanych przez maszyny, to właśnie Artificial Intelligence (AI). Przetwarzanie danych w sposób szybki i powtarzalny ułatwia ludziom wnioskowanie i przyspiesza rozwiązywanie problemów. Na tak rozumianym AI bazowały pierwsze komputerowe szachy (wciąż komputera nie da się sprowokować do przewrócenia stolika:), czy inne gry komputerowe. Są to algorytmy kierujące się zasadą: jeśli zdarzy się coś, to zrób to, w przeciwnym wypadku zrób tamto lub nic.

Poziom głębiej znajduje się Machine Learning (uczenie maszynowe, ML). Metoda ta jest w stanie rozwiązywać problemy i odpowiadać na pytania przy wykorzystaniu skomplikowanych narzędzi statystycznych. Na horyzoncie pojawia się więc wnioskowanie z prawdopodobieństwa i inne inspirujące „akceleratory” umysłu, które pomagają docierać do rozwiązań przesłoniętych ogromną ilością danych. Uczenie maszynowe zakłada, że dane przetwarzane wcześniej mają wpływ na analizę danych przetwarzanych później.


Ciekawym przykładem machine learning jest portal Zillow, wspierający handel nieruchomościami, na którym ceny szacowane są za pomocą algorytmów sztucznej inteligencji. Bierze on pod uwagę masę danych dotyczących parametrów nieruchomości, historii cen, okolicy itp. Skuteczność sprzedaży (lub jej brak), nieustannie kalibruje publikowane oferty. To tak, jakby system nie tylko rozumiał i analizował wciąż zmieniające się dane, ale również na podstawie wyciągniętych przez siebie wniosków podejmował decyzje i proponował rozwiązania problemów.

Kolejnym poziomem rozwoju AI jest świętujący ostatnio ogromne sukcesy Deep Learning („głębokie uczenie”, DL). To metody wykorzystujące sieci neuronowe, czyli kolejny genialny matematyczny wynalazek (starszy zresztą niż sama koncepcja sztucznej inteligencji), dzięki któremu możemy mówić o samodoskonaleniu, weryfikacji i procesach prowadzących do autonomicznego (nie nadzorowanego przez człowieka) wnioskowania, nawet z danych wcześniej nie systematyzowanych.

Sieci neuronowe – ich budowa zainspirowana została strukturą ludzkiego mózgu, a jej poszczególne neurony budową ludzkich komórek nerwowych, chociaż szukanie daleko idących analogii z ludzkim umysłem nie ma większego sensu, skoro wciąż nie do końca rozumiemy działanie mózgu. W sieciach neuronowych, kolejne neurony przekazują sygnał wejściowy coraz głębiej, odpowiednio go modyfikując, zgodnie z przypisanymi im „wagami”. Sieć neuronowa jest w stanie nauczyć się wag w procesie zwanym treningiem, na podstawie przekazanych jej przykładowych danych, takich jak np. obrazy. Co ciekawe głębokie sieci neuronowe nie tylko ‘zapamiętują’ dane treningowe, ale też potrafią świetnie ‘generalizować’, a więc radzą sobie niezwykle skutecznie z danymi, których nigdy wcześniej nie widziały.

Autonomiczne samochody i drony, sklepy Amazon GO, wyniki wyszukiwania Google – wszystkie te rozwiązania, aby dostarczać nam więcej życiowego komfortu, przyspieszać podejmowanie decyzji, a nawet komponować dla nas piosenki, bazują na modelach Deep Neural Networks.

Rozpoznawanie obrazu

Przez ponad trzydzieści lat ludzie próbowali uczyć maszyny rozpoznawania obiektów na fotografiach poprzez budowanie modeli matematycznych twarzy, samochodów, drzew, krajobrazów, słońc, ptaków etc. Próby te nie dawały jednak zadowalających rezultatów. Do czasu. W momencie upowszechnienia się zwyczaju gromadzenia ogromnych wolumenów danych przez jakże wiele firm, pojawiła się potrzeba ich zagospodarowania. Dzięki rozwiązaniom typu CUDA (równoległe przetwarzanie) w kartach graficznych NVIDII, inżynierowie danych otrzymali niespotykaną dotąd możliwość szybkiego przetwarzania terabajtów danych na przystępnym cenowo hardware.

Dzięki naszpikowaniu krzemem i ogromnemu wzrostowi mocy obliczeniowej, sztuczna inteligencja zaczęła uczyć się rozpoznawania obiektów na obrazach za pomocą wzorców, które służą za dane wejściowe dla sieci neuronowych. Im więcej zdjęć wzorcowych, tym efektywniej sieci neuronowe uczą się ich właściwej identyfikacji. Oznacza to, że mniej czasu i ludzkiej pracy polegającej na żmudnym i, nie oszukujmy się – również nudnym, korygowaniu wyników potrzeba, aby wytrenować sieć do prawidłowego rozpoznawania Citroenów C4, Laptopów Lenovo, uśmiechów, borsuków czy piwonii.

Na bazie testowego zestawu zdjęć następuje optymalizacja rozpoznawania. W efekcie otrzymujemy nieźle wytrenowaną sieć neuronową do wykorzystania w przeróżnych aplikacjach, na przykład w wirtualnych przymierzalniach, trybie portretowym smartfonów czy bardziej lirycznych kontekstach, takich jak jak Deep Dream Generator. Zastosowania technologii rozpoznawania obrazu się jednak na tym nie kończą – można ją z powodzeniem wykorzystać również z w biznesie i handlu.

Co mogłoby pójść nie tak?

Sztuczna inteligencja nie myśli, warto więc pamiętać o tym, aby dane wsadowe były dobrej jakości i wstępnie sprawdzone przez użytkowników, inaczej może nas spotkać niespodzianka. Może nie tego kalibru, co twitterowy bot Tay, który uległ degeneracji, czy próby Amazona z automatycznym dobieraniem nadruków na pokrowce do smartfonów, ale zgodnie z przysłowiem, czym skórka za młodu nasiąknie… nie warto mącić sieci w neuronach oznaczaniem soków pomarańczowych jako nektary pomarańczowe, czy proszków do kolorów 6kg spring breeze jako proszków do białego 6kg summer fresh, wybijanie tego z głowy sieci będzie angażować zasoby ludzkie przydatne gdzie indziej.

Potencjał dobrze wdrażanej sztucznej inteligencji wydaje się być nieskończony. Firma technologiczna, która nie bada i tworzy rozwiązań w oparciu o sztuczną inteligencję, nie znajdzie dla siebie miejsca na rynku przyszłości.

Rozpoznawanie produktów – klucz do wiedzy

eLeader wyspecjalizował się w rozwiązaniach pomagającym producentom i dystrybutorom czynić jak najlepszy użytek z handlowych zespołów mobilnych. Dane z terenu to meldunki z pierwszej linii frontu walki o sklepową półkę. Ich pozyskanie zajmuje czas, wymaga spalania paliwa i transferu wiedzy. Dobrze więc aby danych było możliwie dużo i aby były użyteczne. Im więcej wizyt, tym więcej szans na kontrakty i zwiększanie sprzedaży, tym lepsze relacje ze sklepami. Im dane są obszerniejsze i bardziej wiarygodne tym lepsza strategia sprzedażowa. Jednak żmudne liczenie produktów, analizy udziałów półkowych, sprawdzanie braków narażone są na błędy wynikające z zaburzeń percepcji, zmęczenia, nierzadko rutyny. Jak więc pozyskiwać bardziej wiarygodne dane przy jednoczesnym skracaniu czasu wizyty? Jak uzyskiwać informacje szybko i natychmiast wiedzieć co z nimi dalej robić

Od 2014 roku nasi klienci korzystają z eLeader Shelf Recognition AI, pierwszego na rynku rozwiązania umożliwiającego analizę półki sklepowej na bazie jej fotografii i zasilenie danymi systemu SFA. Więcej na temat rozwiązania eLeader można przeczytać tu.

Poznajcie Alę

Abyśmy mogli skutecznie rozpoznawać obrazy – w tym przypadku produkty ze sklepowej półki – potrzebujemy wzorców. Im jest ich więcej, tym lepiej. Wzorce te przekazujemy Ali (to imię sieci neuronowej eLeader). W ten sposób realizowany jest etap trenowania eLeader Shelf Recognition AI. Tak wytrenowana sztuczna inteligencja nadaje się już w pełni do pracy z przedstawicielami handlowymi, a zdjęcia wykonywane na bieżąco podczas wizyt w sklepach mogą służyć do jej dodatkowej kalibracji.

Schemat działania eLeader Shelf Recognition AI. Dane na temat produktów na półkach docierają do handlowca podczas tej samej wizyty. Umożliwia to nie tylko zrozumienie sytuacji w danym sklepie, ale również może automatycznie aktualizować scenariusz wizyty w celu podjęcia natychmiastowej akcji.

Proces wdrożenia i oddania środowiska Shelf Recognition AI z Alą gotową do działania zajmuje bardzo niewiele czasu. Po uruchomieniu projektu pracownicy mobilni otrzymują wyniki automatycznej analizy produktów w czasie tej samej wizyty, co oznacza, że mogą porównywać stan faktyczny ze standardem, np. Perfect Store, i natychmiast wdrażać działania naprawcze, aby podnosić KPI swoje i organizacji. Informacja pozyskiwana i analizowana przez tę technologię bardzo łatwo daje zamienić się na wiedzę będącą podstawą myślenia strategicznego na rynku. Na przykład przeanalizowane dane z produktów pomagają tworzyć firmowy „ranking sklepów”, wedle którego planowane są przyszłe wizyty. Dzięki temu pracownicy mobilni mogą częściej pojawiać się tam, gdzie sprzedaż jest największa (zgodnie z modelem RAO, czyli Retail Activities Optimization).

Czytaj więcej o eLeader Shelf Recognition AI

Już wkrótce w twojej lodówce?

Inteligentne rozpoznawanie produktów to przyszłość nie tylko procesów biznesowych. Najwięksi producenci sprzętu AGD (goszczący w portfolio eLeader Samsung, Whirlpool czy LG) doskonalą urządzenia, które są w stanie nie tylko informować nas o zbliżającym się terminie przydatności do spożycia (prościzna), ale są w stanie komunikować się ze sobą przekazując z kuchenki do lodówki np. co jedliśmy na obiad, aby lepiej dostosować parametry zmywarki, czy informować nas, że kończy nam się marchewkowy Kubuś od Maspexu (tzn. rozpoznać jego ilość i rodzaj, a następnie zamówić go wprost z panelu lodówki do domu – to też łatwe). Opisywany tu Internet of things sprawi zapewne, że już wkrótce realnym stanie się powiedzenie znane z polityki, czy reklamy w wersji: otwierasz lodówkę, a tu AI.

Niezależnie od tego, jak mocno wykorzystywać będziemy inteligencję sztuczną i jak istotne miejsce zajmie ona w naszym życiu lub biznesie, to pamiętać musimy, ze inteligencja systemu zależy przede wszystkim od inteligencji, wiedzy i doświadczenia inżynierów AI, twórców i trenerów sieci (sorry Ala), dzięki którym możemy rozwijać i rozszerzać eLeader Shelf Recognition AI i czynić świat przyjemniejszym miejscem.


Chcesz usprawnić działania w terenie? Potrzebujesz więcej informacji?

SKONTAKTUJ SIĘ