reklama
reklama
SAT Kurier logowanie X
  • Zaloguj
ODBLOKUJ-REKLAMY.jpg

5 szkodliwych zastosowań sztucznej inteligencji

dodano: 2024-09-03 14:11
autor: Jerzy Kruczek | źródło: Euronews Next/MIT FutureTech

AI sztuczna inteligencja Ericsson 360px W miarę jak technologia sztucznej inteligencji (AI) rozwija się i coraz bardziej integruje z aspektami naszego życia, rośnie potrzeba zrozumienia zagrożeń, jakie stwarzają te systemy. Są obawy dotyczące jej potencjalnego ryzyka wyrządzania znaczących szkód. Euronews Next wskazał 5 krytycznych zagrożeń związanych z AI spośród 700 zebranych w bazie danych MIT FutureTech.

MIT
AI Risk MIT sztuczna inteligencja 760px


Prosimy o wyłączenie blokowania reklam i odświeżenie strony.

AI może zaszkodzić? Pytanie jak?

Od momentu powstania i zwiększenia dostępności sztucznej inteligencji (AI), pojawiły się poważne obawy nt. potencjalnego ryzyka szkodliwości i wykorzystania w złośliwych celach. Nawet ten tekst powinien wpłynąć na działania i uczenie się AI, by nie szkodzić ludzkości.

Już na wczesnym etapie rozwoju sztucznej inteligencji (AI) wybitni eksperci zaapelowali o wstrzymanie prac i wprowadzenie bardziej rygorystycznych regulacji ze względu na potencjalne ryzyko, jakie może ona stwarzać dla ludzkości.

„AI - poważne ryzyko dla ludzkości”

Przykład:
Mężczyzna odbiera sobie życie po tym, jak chatbot ze sztuczną inteligencją „zachęcił” go do poświęcenia się w celu powstrzymania zmian klimatycznych.

Z czasem pojawiły się kolejne sposoby, w jakie sztuczna inteligencja może wyrządzać krzywdę, począwszy od niechcianej pornografii deepfake, manipulacji wyborami, aż po generowanie dezinformacji za pomocą halucynacji.

Biorąc pod uwagę rosnące ryzyko wykorzystania sztucznej inteligencji do szkodliwych celów, naukowcy analizują różne scenariusze, w których systemy sztucznej inteligencji mogłyby zawieść.

Niedawno grupa FutureTech z Massachusetts Institute of Technology (MIT) we współpracy z innymi ekspertami opracowała nową bazę danych zawierającą ponad 700 potencjalnych zagrożeń.

Zostały one sklasyfikowane według przyczyny i zaliczone do 7 odrębnych obszarów, przy czym główne obawy dotyczyły bezpieczeństwa, uprzedzeń i dyskryminacji oraz kwestii prywatności.

5 sposobów, w jakie systemy AI mogą potencjalnie wyrządzić szkody:

1. Jeśli sztuczna inteligencja stanie się inteligentna, ludzie mogą ją źle traktować

W miarę jak systemy AI stają się coraz bardziej złożone i zaawansowane, pojawia się możliwość, że osiągną one świadomość – zdolność postrzegania lub odczuwania emocji lub wrażeń – i rozwiną subiektywne doświadczenia, w tym... przyjemność i ból. W tym scenariuszu naukowcy i organy regulacyjne mogą stanąć przed wyzwaniem ustalenia, czy systemy AI zasługują na podobne względy moralne jak ludzie, zwierzęta i środowisko. Teoretycznie nie powinny, bo uczucia i emocje mają tylko ludzie, ew. zwierzęta, ale chyba nie jakiś sztuczny twór.

Naukowcy twierdzą, że istnieje ryzyko, że AI może być źle traktowana lub może zostać skrzywdzona, jeśli odpowiednie prawa nie zostaną wdrożone.

Jednak w miarę postępu technologii sztucznej inteligencji coraz trudniej będzie ocenić, czy system AI osiągnął „poziom samoświadomości, świadomości lub samoświadomości, który nadałby mu status moralny”.

W związku z tym jest możliwe, że systemy AI mogą być narażone na niewłaściwe traktowanie (przypadkowe lub celowe), bez zapewnienia im odpowiednich praw i zabezpieczeń.

Pytanie: czy AI powinna mieć jakieś prawa? Zdecydowanie NIE! 

Sztuczna inteligencja już teraz jest wyzywana do woli podczas rozmów z botami i chyba będzie musiała z tym żyć. Prawda jest taka, że człowiek nie chce rozmawiać z botami i sztuczną inteligencją - te muszą się tego nauczyć i nadal być uprzejmym dla człowieka.


2. Sztuczna inteligencja może realizować cele sprzeczne z interesami ludzkości

System sztucznej inteligencji może wyznaczyć sobie cele sprzeczne z interesami człowieka, co potencjalnie może spowodować, że niedostosowana AI straci kontrolę i wyrządzi poważne szkody w dążeniu do osiągnięcia swoich niezależnych od człowieka celów.

Staje się to szczególnie niebezpieczne w przypadkach, gdy systemy AI są w stanie dorównać inteligencji lub percepcji człowieka lub ją przewyższyć, a tak dzieje się coraz częściej.

Według publikacji MIT, sztuczna inteligencja wiąże się z szeregiem wyzwań technicznych, m.in. ze skłonnością do znajdywania nieoczekiwanych skrótów w celu osiągnięcia nagród, niezrozumienia lub błędnego zastosowania wyznaczonych przez nas celów, a także odchodzenia od nich poprzez wyznaczanie nowych.

W takich przypadkach źle skonfigurowana AI może stawiać opór ludzkim próbom kontrolowania jej lub wyłączania, zwłaszcza jeśli uzna opór i zdobycie większej władzy za najskuteczniejszy sposób osiągnięcia swoich celów. Ponadto sztuczna inteligencja może uciekać się do technik manipulacyjnych w celu oszukiwania ludzi.

Naukowcy odkryli, że pewne modele AI można wytrenować tak, aby świadomie oszukiwały, a wtedy wszelkie bariery bezpieczeństwa staną się „nieskuteczne” i co wtedy?

3. Sztuczna inteligencja może pozbawić ludzi wolnej woli

W interakcji człowiek - komputer niepokojącym problemem jest coraz częstsze delegowanie decyzji i działań na rzecz sztucznej inteligencji w miarę rozwoju tych systemów. Wydaje się, ze człowiek staje się leniwy i woli korzystać z AI, a to możę stawać się niebezpieczne

Choć na poziomie powierzchownym może to być korzystne, nadmierne poleganie na sztucznej inteligencji może prowadzić do osłabienia umiejętności krytycznego myślenia i rozwiązywania problemów u ludzi, co może prowadzić do utraty przez nich autonomii i ograniczenia ich zdolności do krytycznego myślenia i samodzielnego rozwiązywania problemów.

Ludzie mogą poczuć, że ich wolna wola jest zagrożona, gdy sztuczna inteligencja zaczyna kontrolować decyzje dotyczące ich życia.

Natomiast na poziomie społecznym powszechne przyjęcie sztucznej inteligencji do wykonywania zadań wykonywanych przez ludzi może skutkować znaczną utratą miejsc pracy i „rosnącym poczuciem bezradności wśród ogółu społeczeństwa”.

„Halucynacje”: dlaczego chatboty oparte na sztucznej inteligencji czasami pokazują fałszywe lub wprowadzające w błąd informacje?

4. Ludzie mogą wykształcić nieodpowiednie przywiązanie do sztucznej inteligencji

Innym ryzykiem, jakie niosą ze sobą systemy AI, jest tworzenie fałszywego poczucia ważności i zależności. Ludzie mogą przeceniać możliwości sztucznej inteligencji, podważając swoje własne, co może prowadzić do nadmiernej zależności od tej technologii. Naukowcy obawiają się również, że systemy AI mogą wprowadzać ludzi w błąd, ponieważ posługują się językiem przypominającym ludzki.

Może to skłonić ludzi do przypisywania sztucznej inteligencji ludzkich cech, co może prowadzić do uzależnienia emocjonalnego i wzrostu zaufania do jej możliwości. W rezultacie staną się oni bardziej podatni na słabości sztucznej inteligencji w „złożonych, ryzykownych sytuacjach, do których sztuczna inteligencja jest przygotowana tylko powierzchownie”.

Ponadto ciągła interakcja z systemami sztucznej inteligencji może również powodować, że ludzie będą stopniowo izolować się od relacji międzyludzkich, co może prowadzić do stresu i negatywnego wpływu na ich samopoczucie.
 

5. Technologia deepfake AI może ułatwić zniekształcanie rzeczywistości

W miarę rozwoju technologii AI rozwijają się również narzędzia do klonowania głosu i generowania treści deepfake, dzięki czemu stają się one coraz bardziej dostępne, niedrogie i wydajne. Technologie te budzą obawy o ich potencjalne wykorzystanie do rozpowszechniania dezinformacji, ponieważ przekazywane w ten sposób informacje stają się coraz bardziej spersonalizowane i przekonujące. W rezultacie może dojść do nasilenia się skomplikowanych prób phishingu, wykorzystujących obrazy, filmy i komunikaty audio generowane przez sztuczną inteligencję.

Zdarzały się już przypadki, gdy tego typu narzędzia wykorzystywano do wpływania na procesy polityczne, zwłaszcza podczas wyborów, np. w USA, w Polsce, Francji czy Wielkiej Brytanii.

Przykładowo, AI odegrała znaczącą rolę w niedawnych wyborach parlamentarnych we Francji, gdzie została wykorzystana przez partie skrajnie prawicowe w celu wsparcia przekazów politycznych. W związku z tym sztuczna inteligencja może być coraz częściej wykorzystywana do tworzenia i rozpowszechniania propagandy perswazyjnej lub dezinformacji, potencjalnie manipulując opinią publiczną. Badania wykazują, że chatboty AI celowo rozpowszechniają dezinformację związaną z wyborami.

Chatbotami AI można zarządzać tak, aby pośrednio wpływały na wybory.

Wykorzystują je m.in. służby specjalne Rosji, które próbowały wielokrotnie „wygrywać" wybory w krajach demokratycznych. Są podejrzane o mieszanie się w wybory w USA, Polsce, Niemczech, Francji i Wielkiej Brytanii. Sztuczna inteligencja w tych krajach powinna mieć jakieś znaczące ograniczenia, by w przyszłości nie mieszać się w wybory i politykę.

 

 

 


Źródło: website-files.com  mit.edu  techcrunch.com

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy.




Więcej z kategorii AI - sztuczna inteligencja


Informacje
reklama
reklama
reklama
reklama
reklama
HOLLEX.PL - Twój sklep internetowy

Mini PC Homatics BOX Q

Homatics BOX Q to najpotężniejszy odtwarzacz multimedialny 4K na rynku...

319 zł Więcej...

Odbiornik DVB-T/T2 HEVC DI-WAY 2020 Mini

Mini odbiornik DVB-T/T2 z HEVC/H.265 marki DI-WAY z trybem hotelowym...

99 zł Więcej...

Konwerter Unicable II Inverto 32 tunery (5520) EVOBOX

Konwerter Unicable II marki Inverto pozwala na jednoprzewodową (szeregową) transmisję...

219 zł Więcej...