może tu
    • 12 LIS 25
    Konferencja „Czy możemy zaufać sztucznej inteligencji?” zainaugurowała projekt badawczy Uniwersytetu Szczecińskiego

    Konferencja „Czy możemy zaufać sztucznej inteligencji?” zainaugurowała projekt badawczy Uniwersytetu Szczecińskiego

    5 listopada 2025 r. Uniwersytet Szczeciński zainaugurował projekt badawczy dotyczący zaufania do sztucznej inteligencji. W konferencji otwierającej udział wzięli przedstawiciele świata nauki, administracji publicznej i biznesu.

     

    Konferencja „Czy możemy zaufać sztucznej inteligencji? Człowiek, AI i przyszłość pracy, nauki i biznesu” rozpoczęła realizację projektu „Analiza zaufania do sztucznej inteligencji w kontekście psychospołecznych postaw w obszarze nauki i biznesu w Polsce”, finansowanego przez Ministra Nauki i Szkolnictwa Wyższego.

     

    Organizatorką i moderatorką wydarzenia była dr hab. Monika Różycka z Uniwersytetu Szczecińskiego, kierowniczka projektu badawczego. Jej dotychczasowe prace nad zagadnieniem zaufania stanowią istotny kontekst dla realizowanego projektu i kierunku podjętej debaty.

     

    Konferencja została przygotowana przez Uniwersytet Szczeciński we współpracy z Północną Izbą Gospodarczą w Szczecinie. Wydarzenie stanowi przykład efektywnej współpracy nauki i biznesu. Takie połączenie jest dziś szczególnie ważne, ponieważ uczelnie i instytucje publiczne są zachęcane do współdziałania z otoczeniem gospodarczym, aby wspólnie analizować i rozwiązywać wyzwania związane z rozwojem nowych technologii. Współpraca ta przynosi korzyści zarówno środowisku akademickiemu (możliwość prowadzenia badań adekwatnych do realnych potrzeb), jak i przedsiębiorstwom (wspieranie procesów innowacji opartych na wiedzy).

     

    Konferencję otworzył prof. dr hab. Andrzej Skrendo, Prorektor ds. Nauki Uniwersytetu Szczecińskiego, który podkreślił, że pytanie „czy możemy zaufać sztucznej inteligencji?” stawia AI w relacji charakterystycznej dla podmiotów, a nie jedynie narzędzi technicznych. Jak zaznaczył, zaufanie jest kategorią społeczną, a więc dotyczy przede wszystkim ludzi, instytucji i struktur, które technologię tworzą, kontrolują i wdrażają. Wskazał także, że publiczna debata o sztucznej inteligencji coraz częściej przyjmuje charakter egzystencjalny i metafizyczny — obejmując zarówno nadzieje, jak i wyobrażenia o zagrożeniach oraz zmianie sposobu rozumienia świata i relacji międzyludzkich.

     

    Patronat honorowy nad wydarzeniem objął Marcin Łapeciński, Wicemarszałek Województwa Zachodniopomorskiego, podkreślając znaczenie rozwoju kompetencji cyfrowych i innowacji dla przyszłości regionu. Konferencję wspierali także: Klaster IT oraz Technopark Pomerania, jako instytucje zaangażowane w rozwój technologii i współpracę między środowiskiem akademickim a biznesem.

     

    W części merytorycznej jako pierwszy wystąpił prof. dr hab. n. med. Marcin Słojewski, Dyrektor ds. Medycznych Uniwersyteckiego Szpitala Klinicznego nr 2 PUM w Szczecinie. W swoim wystąpieniu zwrócił uwagę, że sztuczna inteligencja w medycynie jest obecna już dziś — zarówno w diagnostyce obrazowej, patomorfologii i analizie EKG, jak i w zarządzaniu procesami szpitalnymi oraz planowaniu terapii. Podkreślił, że: „Maszyny powinny pracować. Ludzie powinni myśleć.”

     

    Jak wskazał, AI może odciążać lekarzy, przejmując część zadań powtarzalnych i czasochłonnych, co pozwala odzyskać czas na kontakt z pacjentem, rozmowę, decyzję i opiekę – elementy, które definiują etos zawodu medycznego.

     

    W obszarze finansów przedsiębiorstw Radosław Mroczka (Efekt Flow) przedstawił, jak sztuczna inteligencja zmienia sposób, w jaki przedsiębiorstwa kontrolują procesy, analizują dane i podejmują decyzje finansowe. Wystąpienie dotyczyło zarówno wymiaru strategicznego, jak i operacyjnego — od prognoz globalnych po konkretne zastosowania w firmach działających na polskim rynku.

     

    Zaprezentował m.in. globalne analizy rozwoju rynku AI, przykłady zastosowań w sektorze finansowym (m.in. analiza ryzyka, wykrywanie nadużyć, zarządzanie inwestycjami) oraz raporty dotyczące transformacji cyfrowej przedsiębiorstw. Szczególną uwagę poświęcił agentom AI – systemom zdolnym do wykonywania autonomicznych zadań operacyjnych, które nie tylko podpowiadają, lecz także realizują wybrane procesy (np. raportowanie, monitoring płynności, kontrola należności, analiza kosztów).

     

    Ponadto w kontekście rynkowym prelegent przedstawił również wartość globalnego i europejskiego sektora AI oraz prognozy jego wzrostu do 2030 r., podkreślając, że jest to jeden z najbardziej dynamicznych obszarów współczesnej gospodarki.

     

    Głos zabrali także:

    · dr inż. Ireneusz Miciuła (Uniwersytet Szczeciński) – o zaufaniu i weryfikacji modeli AI w badaniach,

    · dr Kalina Kukiełko (Uniwersytet Szczeciński) – o paradoksie samotności w epoce technologicznie „połączonego” społeczeństwa.

     

    Dodatkowo krótkie wystąpienia przedstawili:

    · Paweł Kozłowski (Klaster IT) – Prezes Klastra IT i Dyrektor Działu Technology w firmie Kongsberg Maritime Poland, który zwrócił uwagę na wyzwania zarządzania technologią na poziomie organizacji, w szczególności na konieczność łączenia perspektyw technologicznych, operacyjnych i ludzkich,

    · Łukasz Sadłowski, przedstawiciel Bold Innovation – o odpowiedzialnym wykorzystaniu modeli językowych.

     

    W drugiej części wydarzenia Dalia Aghmane i Aleksandra Kalinowska, studentki kierunku Business Management Uniwersytetu Szczecińskiego, zaprezentowały refleksje dotyczące kształtowania krytycznego myślenia i świadomego korzystania z narzędzi AI w edukacji i pracy.

    Dyskusja końcowa miała charakter refleksyjny i podkreśliła, że na pytanie „Czy możemy zaufać sztucznej inteligencji?” nie istnieje jedna odpowiedź. Zaufanie do systemów AI wymaga zaufania do człowieka, jego wiedzy, odpowiedzialności i zdolności do oceny ryzyka.

     

    W ramach projektu rozwijany jest model MITrust, oparty na założeniu, że zaufanie do technologii zaczyna się od zaufania do siebie.

    W kolejnych etapach projektu przeprowadzone zostaną badania wśród naukowców, studentów oraz przedstawicieli biznesu, ukierunkowane na identyfikację granic zaufania wobec systemów AI w różnych kontekstach postaw psychospołecznych.

     

Accessibility Toolbar