Nobilitacja sieci neuronowych

17.01.2025
Data: 21.01.2025
Miejsce wydarzenia: Sala 2011, Wydział Fizyki, ul. K. Ciołkowskiego 1L, Kampus UwB
Godzina: 13:15
Przejdź do kalendarza pokaż na mapie

Dnia 2025-01-21 o godzinie 13:15 w Sali 2011 Wydziału Fizyki UwB, Prof. dr hab. W.Duch z Katedry Informatyki Stosowanej, Wydziału Fizyki, Astronomii i Informatyki Stosowanej, Uniwersytetu Mikołaja Kopernika wygłosi wykład pt:

"Nobilitacja sieci neuronowych"

Serdecznie zapraszamy

Andrzej Maziewski

Jerzy Przeszowski

„Nobilitacja sieci neuronowych”

Prof. dr hab. W.Duch

Katedra Informatyki Stosowanej, Wydział Fizyki, Astronomii i Informatyki Stosowanej,

Uniwersytet Mikołaja Kopernika

Nagrody Nobla w dziedzinie fizyki i chemii w 2024 r. podkreślają kluczową rolę sieci neuronowych w rozwoju nauki. Podstawowe prace Johna Hopfielda są głęboko zakorzenione w fizyce statystycznej, sięgając wstecz do modelu ferromagnetyzmu Lenza-Isinga (1925), z późniejszym rozwojem dynamiki modelu Isinga przez R. Glaubera, modeli szkieł spinowych i układów nieergodycznych. Wszystko to przyczyniło się do teorii układów złożonych i powstania samoorganizujących się układów pamięci asocjacyjnej, jak badali S. Amari (1972) i Hopfield (1982, 1984), którzy połączyli te koncepcje z fizyką statystyczną. Pomimo swojej prostoty układy te tworzą wiele stanów lokalnych, wykazując nieergodyczną obliczeniową nieredukowalność. W „A New Kind of Science” (2002) S. Wolfram argumentował, że nie ma skrótu, aby zrozumieć zachowanie układów złożonych. Geoffrey Hinton, naukowiec zajmujący się kognitywistyką, był pionierem metod uczenia się wewnętrznych reprezentacji informacji w złożonych sieciach, przyczyniając się do algorytmów propagacji wstecznej (1986) i rozwoju głębokiego uczenia się (2015). To pobudziło niezwykły postęp w uczeniu maszynowym, w tym pojawienie się uczenia maszynowego opartego na fizyce (physics-informed machine learning - PIML). Z tych teoretycznych podstaw wyłoniły się wielkie postępy w sztucznej inteligencji, czego przykładem jest triumf AlphaGo nad mistrzami świata w Go do 2017 roku. Zostało to osiągnięte przez system AlphaGo opracowany przez DeepMind, założony przez Demisa Hassabisa, obliczeniowego neurobiologa. Jego pomysłem było połączenie spostrzeżeń z zakresu neuronauki systemowej, uczenia maszynowego i sprzętu komputerowego w celu „rozwiązania inteligencji” i zastosowania jej do różnych złożonych wyzwań. Doprowadziło to do znaczących przełomów, takich jak seria programów AlphaFold, które skutecznie rozwiązały 50-letnie wyzwanie w biofizyce, przewidując trójwymiarowe struktury białek z dużą dokładnością na podstawie ich jednowymiarowych sekwencji aminokwasowych. Implikacje dla nauki są głębokie: obecnie dysponujemy narzędziami do radzenia sobie ze złożonymi systemami, które są obliczeniowo nieredukowalne. Ostatnie osiągnięcia wskazują, że duże modele multimodalne mogą wykazać się kreatywnością w generowaniu nowych rozwiązań problemów naukowych. Ponadto ewolucja systemów wieloagentowych wskazuje na potencjał uniwersalnej inteligencji ogólnej. Tegoroczne Nagrody Nobla powinny skłonić nas do refleksji nad transformacyjną falą metod uczenia maszynowego kształtujących nasze środowisko naukowe.

Temat: seminarium 21I 13:15 W.Duch : Nobilitacja sieci neuronowych

Czas: 21 sty 2025 01:00 PM Warszawa

Dołącz do spotkania Zoom

https://us02web.zoom.us/j/89678039590?pwd=VdLrKE3BHg1IAbP1sIkVQbbbnqADAA.1

Identyfikator spotkania: 896 7803 9590

Kod dostępu: 009016

©2024 Wszystkie prawa zastrzeżone.

W ramach naszego serwisu www stosujemy pliki cookies zapisywane na urządzeniu użytkownika w celu dostosowania zachowania serwisu do indywidualnych preferencji użytkownika oraz w celach statystycznych. Użytkownik ma możliwość samodzielnej zmiany ustawień dotyczących cookies w swojej przeglądarce internetowej. Więcej informacji można znaleźć w Polityce Prywatności Uniwersytetu w Białymstoku. Korzystając ze strony wyrażają Państwo zgodę na używanie plików cookies, zgodnie z ustawieniami przeglądarki.