W miarę jak systemy AI stają się coraz bardziej złożone i zaawansowane, pojawia się możliwość, że osiągną one świadomość – zdolność postrzegania lub odczuwania emocji lub wrażeń – i rozwiną subiektywne doświadczenia, w tym... przyjemność i ból. W tym scenariuszu naukowcy i organy regulacyjne mogą stanąć przed wyzwaniem ustalenia, czy systemy AI zasługują na podobne względy moralne jak ludzie, zwierzęta i środowisko. Teoretycznie nie powinny, bo uczucia i emocje mają tylko ludzie, ew. zwierzęta, ale chyba nie jakiś sztuczny twór.
Naukowcy twierdzą, że istnieje ryzyko, że AI może być źle traktowana lub może zostać skrzywdzona, jeśli odpowiednie prawa nie zostaną wdrożone.
Jednak w miarę postępu technologii sztucznej inteligencji coraz trudniej będzie ocenić, czy system AI osiągnął „poziom samoświadomości, świadomości lub samoświadomości, który nadałby mu status moralny”.
W związku z tym jest możliwe, że systemy AI mogą być narażone na niewłaściwe traktowanie (przypadkowe lub celowe), bez zapewnienia im odpowiednich praw i zabezpieczeń.
Pytanie: czy AI powinna mieć jakieś prawa? Zdecydowanie NIE!
Sztuczna inteligencja już teraz jest wyzywana do woli podczas rozmów z botami i chyba będzie musiała z tym żyć. Prawda jest taka, że człowiek nie chce rozmawiać z botami i sztuczną inteligencją - te muszą się tego nauczyć i nadal być uprzejmym dla człowieka.
System sztucznej inteligencji może wyznaczyć sobie cele sprzeczne z interesami człowieka, co potencjalnie może spowodować, że niedostosowana AI straci kontrolę i wyrządzi poważne szkody w dążeniu do osiągnięcia swoich niezależnych od człowieka celów.
Staje się to szczególnie niebezpieczne w przypadkach, gdy systemy AI są w stanie dorównać inteligencji lub percepcji człowieka lub ją przewyższyć, a tak dzieje się coraz częściej.
Według publikacji MIT, sztuczna inteligencja wiąże się z szeregiem wyzwań technicznych, m.in. ze skłonnością do znajdywania nieoczekiwanych skrótów w celu osiągnięcia nagród, niezrozumienia lub błędnego zastosowania wyznaczonych przez nas celów, a także odchodzenia od nich poprzez wyznaczanie nowych.
W takich przypadkach źle skonfigurowana AI może stawiać opór ludzkim próbom kontrolowania jej lub wyłączania, zwłaszcza jeśli uzna opór i zdobycie większej władzy za najskuteczniejszy sposób osiągnięcia swoich celów. Ponadto sztuczna inteligencja może uciekać się do technik manipulacyjnych w celu oszukiwania ludzi.
Naukowcy odkryli, że pewne modele AI można wytrenować tak, aby świadomie oszukiwały, a wtedy wszelkie bariery bezpieczeństwa staną się „nieskuteczne” i co wtedy?
W interakcji człowiek - komputer niepokojącym problemem jest coraz częstsze delegowanie decyzji i działań na rzecz sztucznej inteligencji w miarę rozwoju tych systemów. Wydaje się, ze człowiek staje się leniwy i woli korzystać z AI, a to możę stawać się niebezpieczne
Choć na poziomie powierzchownym może to być korzystne, nadmierne poleganie na sztucznej inteligencji może prowadzić do osłabienia umiejętności krytycznego myślenia i rozwiązywania problemów u ludzi, co może prowadzić do utraty przez nich autonomii i ograniczenia ich zdolności do krytycznego myślenia i samodzielnego rozwiązywania problemów.
Ludzie mogą poczuć, że ich wolna wola jest zagrożona, gdy sztuczna inteligencja zaczyna kontrolować decyzje dotyczące ich życia.
Natomiast na poziomie społecznym powszechne przyjęcie sztucznej inteligencji do wykonywania zadań wykonywanych przez ludzi może skutkować znaczną utratą miejsc pracy i „rosnącym poczuciem bezradności wśród ogółu społeczeństwa”.
„Halucynacje”: dlaczego chatboty oparte na sztucznej inteligencji czasami pokazują fałszywe lub wprowadzające w błąd informacje?
Innym ryzykiem, jakie niosą ze sobą systemy AI, jest tworzenie fałszywego poczucia ważności i zależności. Ludzie mogą przeceniać możliwości sztucznej inteligencji, podważając swoje własne, co może prowadzić do nadmiernej zależności od tej technologii. Naukowcy obawiają się również, że systemy AI mogą wprowadzać ludzi w błąd, ponieważ posługują się językiem przypominającym ludzki.
Może to skłonić ludzi do przypisywania sztucznej inteligencji ludzkich cech, co może prowadzić do uzależnienia emocjonalnego i wzrostu zaufania do jej możliwości. W rezultacie staną się oni bardziej podatni na słabości sztucznej inteligencji w „złożonych, ryzykownych sytuacjach, do których sztuczna inteligencja jest przygotowana tylko powierzchownie”.
Ponadto ciągła interakcja z systemami sztucznej inteligencji może również powodować, że ludzie będą stopniowo izolować się od relacji międzyludzkich, co może prowadzić do stresu i negatywnego wpływu na ich samopoczucie.
Mini PC Homatics BOX Q
Homatics BOX Q to najpotężniejszy odtwarzacz multimedialny 4K na rynku...
319 zł Więcej...Odbiornik DVB-T/T2 HEVC DI-WAY 2020 Mini
Mini odbiornik DVB-T/T2 z HEVC/H.265 marki DI-WAY z trybem hotelowym...
99 zł Więcej...Konwerter Unicable II Inverto 32 tunery (5520) EVOBOX
Konwerter Unicable II marki Inverto pozwala na jednoprzewodową (szeregową) transmisję...
219 zł Więcej...