w pracy się sporo AI zajmowałem, głównie sieci neuronowe i AI, to jest tak marketingowe wyolbrzymianie tego procesu, który się pod tą nazwą kryje, że aż obrzydzenie bierze
w sporym uproszczeniu - rozwiązanie dowolnego danego problemu, gdzie naszym zadaniem jest stworzenie skrzynki, króra przetwarza wejścia na wyjścia, to proces dwuetapowy - po pierwsze dobranie "sposobu" przetwarzania tych danych wejściowych, czyli z punktu widzenia matematyki - wybranie np. stopnia wielomianu i określenie zależności liniowych bądź nieliniowych, czyli określenie samej postaci f(x,y,z...), gdzie na tym etapie nie znamy współczynników - to jest drugi etap - poszukiwanie współczynników
i jedyne, co robi AI, to po doborze "sposobu" - dobiera odpowiednie parametry(współczynniki) poprzez użycie sprzężenia zwrotnego i minimalizowanie powstałego błędu względem danych testowych
podstawowy percepton, czy też zwyczajnie - sieć jedno-warstwowa - nie uwzględniała zależności pomiędzy wejściami, dlatego ktoś wymyślił, żeby dodać warstwy pośredniczące i nazwał to szumnie kolejną nazwą marketingową - deeplearningiem
w praktyce - polega to na tym, że mamy dupną sieć, która po prostu ma wszystkie kombinacje wejść, to wiadomo, że jak jakiejś kombinacji da współczynnik bliski 0, to tak jakby go nie było, czyli to ma niby rozwiązywać "samo" obydwa te kroki - dobór "sposobu" i dobór współczynników
brzmi wspaniale prawda? otóż chuja, bo teraz mamy problem dobrania sposobu w jaki ma uczyć się ta sieć, bo od tego sposobu zależy do jakiego dojdzie rozwiązania i dlatego mamy rozmaite permutacje sieci neuronowych, które uczą się w inny sposób i dany typ sieci jest lepszy do danych rozwiązań, gdyż takie są też te zależności, a więc sieci neuronowe same w sobie - w żaden sposób nie ułatwiły procesu myślowego u człowieka, jaki jest potrzebny do określenia pewnych zależności - stworzyły tylko kolejny poziom abstrakcji i pozwoliły zautomatyzować sam proces dobierania współczynników i równoczesną analizę ogromnych zbiorów danych
problem doboru "sposobu", czyli określenia powiązań i zależności został zastąpiony problemem doboru metody, jaką sieć ma się uczyć i do jakich "sposobów" dążyć, co tak naprawdę jest tym samym
co więcej, komplikuje ten problem, gdyż metody optymalizacji, w których m.in. dobiera się krok uczenia itp. same w sobie są problemem i zawiłością, do tego dochodzą problemy overfittingu itd.
z tej przyczyny - rozwiązania o sieci neuronowe są teoretycznie zawsze gorsze, tyle że człowiek do niektórych rozwiązań nie jest w stanie dojść, gdyż jest to zbyt wielka liczba przetwarzanych danych
i generalnie - nie wyobrażam sobie, w jaki sposób ai miałoby być wykorzystywane do zabezpieczeń anty-botowych i być lepsze od tradycyjnych rozwiązań, ciężko mi to pojąć i podejrzewam, że dla "innowacyjności" i "marketingu" jest wciśnięte ai, które mało co robi
osobiście w swojej karierze, nie spotkałem się z przypadkiem, żeby ai przydało się do czegoś innego niż przetwarzanie obrazów albo krystalizowanie(często przypadkowych i bezsensownych) powiązań w ogromnych zbiorach danych
Zakładki