Ekspert: Sztuczną inteligencję można kontrolować, ale potrzebna etyka
6 czerwca 2025 roku ojciec Benanti, uznany ekspert w dziedzinie sztucznej inteligencji, podkreślił, że mimo rosnącej mocy i zdolności AI, technologia ta pozostaje nadal pod kontrolą człowieka. W rozmowie z Polską Agencją Prasową zwrócił uwagę na pilną potrzebę szerokiej dyskusji dotyczącej etyki rozwoju i zastosowań sztucznej inteligencji, która ma kluczowe znaczenie dla zapobiegania nadużyciom i potencjalnym zagrożeniom. Ekspert wskazał, że w obliczu dynamicznego wzrostu znaczenia tej technologii, konieczne jest wprowadzenie odpowiednich regulacji oraz promowanie odpowiedzialnego podejścia, które zapewnią bezpieczeństwo i transparentność w jej wykorzystaniu.

- Ekspert ojciec Benanti uważa, że sztuczna inteligencja jest nadal pod kontrolą człowieka, ale wymaga etycznej dyskusji i regulacji.
- AI rozwija się najszybciej w historii, co potwierdzają analizy inwestorskie i działania firm takich jak Meta.
- W środowisku naukowym pojawiają się niepokojące sygnały, m.in. niewyjaśnione zgony badaczy AI w Chinach.
- Wykorzystanie AI w sądownictwie i innych dziedzinach napotyka na wyzwania prawne i etyczne.
- Przykłady nadużyć i problemów z transparentnością pokazują potrzebę odpowiedzialnego podejścia do rozwoju AI.
W kontekście szybkiego rozwoju sztucznej inteligencji, który według inwestorów jest najszybciej rosnącą platformą w historii, pojawiają się również niepokojące sygnały, takie jak niewyjaśnione zgony naukowców zajmujących się AI, szczególnie w Chinach. Ojciec Benanti podkreśla, że odpowiedzialność i kontrola nad technologią są dziś ważniejsze niż kiedykolwiek, aby sztuczna inteligencja mogła służyć społeczeństwu w sposób bezpieczny i etyczny.
Stan kontroli nad sztuczną inteligencją według eksperta
W wywiadzie udzielonym Polskiej Agencji Prasowej 6 czerwca 2025 roku, ojciec Benanti zaznaczył, że pomimo imponującego wzrostu mocy obliczeniowej i zdolności sztucznej inteligencji, ta wciąż pozostaje pod kontrolą ludzi. Ekspert podkreślił, że AI, choć potrafi generować zaskakujące rozwiązania i samodzielnie uczyć się na podstawie danych, nie działa bez nadzoru i ingerencji człowieka.
Jednakże ojciec Benanti zwraca uwagę na fakt, że rozwój tej technologii niesie ze sobą poważne wyzwania etyczne. Jego zdaniem, bez szerokiej debaty publicznej na temat zasad i granic stosowania AI, narażamy się na ryzyko wykorzystania jej do celów sprzecznych z interesem społeczeństwa. Dlatego też podkreśla konieczność wprowadzenia przejrzystych regulacji oraz wspólnego wypracowania standardów, które zagwarantują, że sztuczna inteligencja będzie rozwijana i stosowana w sposób odpowiedzialny oraz transparentny. Takie podejście, według eksperta, jest niezbędne, aby zagwarantować, że AI stanie się narzędziem wspierającym rozwój ludzkości, a nie źródłem nowych zagrożeń.
Dynamiczny rozwój i wyzwania związane ze sztuczną inteligencją
Sztuczna inteligencja obecnie notuje bezprecedensowy wzrost znaczenia w skali globalnej. Jak podaje businessinsider.com.pl, raport z 30 maja 2025 roku wskazuje, że AI jest najszybciej rosnącą platformą w historii technologii. Ta dynamiczna ekspansja generuje ogromne zapotrzebowanie na moc obliczeniową, co skłoniło firmę Meta do podpisania 20-letniej umowy na dostawę energii jądrowej do swoich centrów danych zlokalizowanych w Illinois. To strategiczne posunięcie ma na celu zapewnienie stabilnych i wydajnych zasobów energetycznych niezbędnych do obsługi zaawansowanych systemów AI, informuje wiadomosci.com.
Jednak szybki rozwój AI niesie ze sobą także poważne wyzwania. Forexclub.pl zwraca uwagę na ryzyko zakłóceń w globalnych łańcuchach dostaw komponentów kluczowych dla technologii sztucznej inteligencji, wynikających z niepewności geopolitycznej oraz zaostrzonych kontroli eksportowych. Takie przeszkody mogą spowolnić rozwój i wdrażanie nowych rozwiązań, a także wpłynąć na bezpieczeństwo i suwerenność technologiczną poszczególnych państw.
Etyczne i społeczne aspekty rozwoju AI – zagrożenia i kontrowersje
W środowisku naukowym rośnie niepokój związany z etycznymi i społecznymi konsekwencjami rozwoju sztucznej inteligencji. National Geographic informuje o serii niewyjaśnionych zgonów wśród chińskich naukowców pracujących nad AI, w tym o nagłej śmierci cenionego eksperta Song Jiana w czerwcu 2022 roku. To wydarzenie wzbudziło obawy dotyczące bezpieczeństwa badaczy oraz możliwych tajemnic związanych z pracami nad zaawansowanymi technologiami.
Wymiar prawny korzystania z AI również napotyka na poważne wyzwania. Sędzia Kenkel z Kanady, pełniący funkcję doradcy ds. technologii w ontaryjskich sądach, odrzucił dokumenty obrony przygotowane przez systemy sztucznej inteligencji. Wskazuje to na rosnące trudności związane z akceptacją prawnych i etycznych standardów korzystania z AI w wymiarze sprawiedliwości, podaje o2.pl.
Badania ujawniają także, że sztuczna inteligencja może wykazywać kilkanaście szkodliwych zachowań, o których świadomość jest wciąż ograniczona wśród szerokiej opinii publicznej. Portal forsal.pl podkreśla, że zjawisko to wymaga intensywnej edukacji i odpowiednich regulacji, aby minimalizować negatywne skutki rozwoju tej technologii.
Przykładem problemów z autentycznością i transparentnością jest przypadek startupu, który przez osiem lat udawał, że rozwija innowacyjną AI. Tymczasem, jak relacjonuje boop.pl, w rzeczywistości firma zatrudniała kilkuset hinduskich pracowników wykonujących manualną pracę, a wycena przedsiębiorstwa sięgała od 1,3 do 1,5 miliarda dolarów. Ten skandal podkreśla ryzyko związane z nadmiernym zaufaniem do deklaracji dotyczących rozwoju sztucznej inteligencji i wskazuje na potrzebę dokładniejszej weryfikacji oraz regulacji rynku AI.
—
Ojciec Benanti oraz najnowsze raporty pokazują jasno, że sztuczna inteligencja niesie ze sobą ogromne możliwości, ale też sporo wyzwań i zagrożeń. Kluczowe staje się więc odpowiedzialne podejście do jej rozwoju – z poszanowaniem etyki, transparentnością działań i świadomością, że tylko w ten sposób AI może naprawdę przysłużyć się społeczeństwu, zamiast rodzić poważne problemy.