Ta strona wykorzystuje ciasteczka ("cookies") w celu zapewnienia maksymalnej wygody w korzystaniu z naszego serwisu. Czy wyrażasz na to zgodę?

Czytaj więcej

Dr Sebastian Szymański o etyce robotyki i zagrożeniach sztucznej inteligencji

Sebastian Szymański (drugi od lewej) na Śląskim Festiwalu Nauki (2023 r.)

Kategoria: cyberbezpieczeństwo, Pulsar, sztuczna inteligencja

Kierownik Centrum Badania Ryzyka Systemowego UW, dr Sebastian Szymański w wywiadzie dla “Gazety Uniwersyteckiej” Uniwersytetu Śląskiego w Katowicach mówi o “uczłowieczaniu” robotów i zagrożeniach sztucznej inteligencji, nawet tej prostej i “głupiej”:

Fragment na zachętę:

Filozof stwierdziłby, że maszyna nie ma żadnych stanów mentalnych – niczego nie odczuwa, nie ma poczucia tożsamości ani nie przejawia emocji i dlatego tak naprawdę nie robimy niczego złego, jeśli traktujemy maszynę w sposób, który byłby brutalny, gdybyśmy traktowali tak czującą istotę. Nie jesteśmy w stanie wyrządzić maszynie żadnej krzywdy, co najwyżej możemy ją uszkodzić. Wielu badaczy natomiast zwraca uwagę na to, że nie należy zupełnie lekceważyć tego rodzaju emocji – tego, że ludzie mają tendencję do uczłowieczania czy „uzwierzęcania” maszyn. Podnoszony jest tutaj argument, zgodnie z którym powinniśmy zwracać uwagę na tego typu zachowania i oceniać je negatywnie, a przynajmniej nie zachęcać do ich podejmowania, bo mogą one np. wzmacniać tendencję do traktowania w ten sposób istot, które rzeczywiście odczuwają – czy to zwierząt, czy innych ludzi.

O zagrożeniach sztucznej inteligencji:

Myślę, że najbardziej powinniśmy się obawiać ludzi i firm, które wykorzystują te najgłupsze systemy sztucznej inteligencji. (…) Niepokoić powinny nas przede wszystkim głupie zastosowania SI, jak np. systemy rekomendacyjne, które bardzo wpływają na zachowania ogromnej liczby ludzi – na decyzję o tym, co kupimy, którą drogą pojedziemy, jaki film obejrzymy. Takie systemy pozwalają na zgromadzenie o nas wiedzy, która często przekracza to, co wiemy o nas samych. (…) pozwala [to] na bardzo skuteczne i niedostrzegalne dla użytkowników manipulowanie ich postawami. Może chodzić o decyzje dotyczące zakupu butów, ale też decyzje podejmowane przez wyborców podczas wyborów.

Więcej w wywiadzie (link).