Nasze newsy
Śledź nasze aktualności.
Sztuczna inteligencja zatacza coraz szersze kręgi w branży IT. Z roku na rok zastosowania algorytmów sztucznej inteligencji są coraz większe.
W zeszły czwartek w Warszawie w ramach projektu Infoshare odbyła się konferencja Infoshare AI. Był to cykl dziewięciu wykładów na tematy związane ze sztuczną inteligencją czy machine learing. Wydarzenie pomimo tego że trwało cały dzień minęło niezwykle szybko a same wykłady dostarczyły wiele wartościowych in inspirujących informacji. Oto przykłady niektórych.
Z roku na rok liczba ataków na sieci komputerowe rośnie w zastraszającym tempie. Ofiarami ataków są nie tylko sieci komercyjne ale także urzędy, szkoły a nawet szpitale. Dotychczasowe narzędzia zabezpiczające serwery przed atakami stają się coraz mniej skuteczne. Sięgnięto więc po AI aby skuteczniej obronić się przed atakami.
Vadim Gechman (Senior Manager Big Data Analytics w Nvidia Networking) podczas swojego wykładu przybliżył dokładniej rozwijany przez Nvidię projekt Morfeusz którego zadaniem jest ochrona sieci komputerowych. Sieć neuronowa analizując dane takie jak praca procesora, zużycie zasobów przez procesy, ruch sieciowy użytkowników i wiele innych próbuje wykryć anomalia w pracy serwera. W przypadku wykryciu tych anomalii do administratora wysyłany jest alert do administratora sieci. Po głębszej analizie administrator może podjąć decyzję o odcięciu serwera i wprowadzeniu procedury naprawy.
Piotr Pietrzkiewicz (Sales Engineering Manager at Snowflake) przybliżył projekt ekstrakcji danych z dokumentów do późniejszej analizy bazy dokumentów. Ekstrakcji podlega nie tylko treść ale także tabele czy nawet obrazy (z użyciem technologii OCR). Analizie poddawane są wszystkie typy dokumentów: rachunki, umowy, dokumentacje. Dzięki temu łatwiej jest wydobyć wartościowe informacje ze swoich zasobów. Tak stworzoną bazę danych możemy na przykład spytać np o wysokość kary za przekroczenie terminu projektu X w umowie z kontrahentem Y lub o ilość tonerów kolorowych zużytych przez drukarki w ciągu ostatniej dekady.
Czy jest możliwe zbudowanie komputera który będzie miał takie same parametry jak ludzki mózg? Łukasz Anaczkowski z Manager at Graphcore przybliżył ten problem. Okazuje się że zbudowanie takiego komputera to nie tylko procent sprzętowy. Stworzony super komputer potrzebował by 1PB (peta bajta) pa mięci RAM. 1 PB to 1000 * 1000 GB a przeciętny komputer ma 16GB RAMu. Zaprojektowana sieć komputerowa musiała by obsługiwać 100 trylionów parametrów. Żeby nauczyć sieć neuronową sprzęt musiał by działać przez rok i zużył by tyle samo prądu ile przez rok zużywa Polska.
Nie sposób przybliżyć wszystkie wykłady. Powyżej opisane były te najciekawsze nie tylko dla inżyniera ale być może dla osoby nietechnicznej. Tego rodzaju wydarzenia są niezwykłą kopalnią wiedzy i uczestnictwo w nich jest wartościowym doświadczeniem.
Śledź nasze aktualności.
Jak poprawnie iterować dużą ilość danych w Laravel Eloquent
Nowa wtyczka do Octobercms zwiększająca bezpieczeństwo stron www.