Witamy w naszej mini-serii poświęconej zarządzaniu sztuczną inteligencją, przedstawionej przez Thomasa Douglasa, globalnego menedżera ds. branży ICT w DNV.
Według ostatniego badania ViewPoint przeprowadzonego przez DNV, 70% firm dopiero rozpoczyna swoją przygodę ze sztuczną inteligencją. Ponieważ sztuczna inteligencja szybko ewoluuje, kluczowe znaczenie ma wczesne wdrożenie odpowiedniego zarządzania.
W tej mini-serii Thomas omawia znaczenie zrozumienia ryzyka i korzyści związanych ze sztuczną inteligencją, zniwelowania barier w zaufaniu do sztucznej inteligencji oraz wdrożenia skutecznego zarządzania sztuczną inteligencją. Podkreśla rolę certyfikacji ISO i przedstawia praktyczne kroki, w tym 8-etapowy przewodnik i zasoby szkoleniowe.
Mamy przyjemność zaoferować specjalną ofertę rejestracji na nasz kurs dotyczący wymagań ISO/IEC 42001:2023 - E-learning mający na celu umożliwienie uczestnikom zdobycia podstawowej wiedzy na temat wymagań tej normy, a także podstawowej wiedzy niezbędnej do jej wdrożenia. Użyj kodu promocyjnego „ISO42KAI-24” przy płatności, aby uzyskać bezpłatny dostęp do e-learningu. Pospiesz się, dostępnych jest tylko 25 miejsc.
Przeczytaj transkrypcje podcastów po polsku
Witamy w podcaście DNV wiodącej na świecie niezależnej jednostki certyfikującej i dostawcy szkoleń o tym jak się poruszać po zabezpieczeniach AI? Nazywam się Thomas Douglas, jestem Globalnym Menedżerem ds. Branży ICT w DNV. W kolejnych trzech odcinkach poprowadzę Was przez niektóre z kluczowych kwestii dla firm rozpoczynających przygodę ze sztuczną inteligencją i pokażę, w jaki sposób zarządzanie sztuczną inteligencją może wprowadzić Was na ścieżkę bezpiecznego, niezawodnego i etycznego korzystania z tej technologii. Jak już wielokrotnie mówiono, w przypadku sztucznej inteligencji nigdy nie ma nudy. Jest to często temat różnych rozmów i każdy w jakiś sposób jest już gdzieś na ścieżce AI lub z pewnością mocno rozważa rozpoczęcie tej podróży. Zaczynamy od zrozumienia ryzyka i korzyści związanych ze sztuczną inteligencją. Według niedawnego badania przeprowadzonego przez DNV, 58% firm nie wdrożyło jeszcze technologii AI, podczas gdy 70% dopiero rozpoczyna swoją przygodę z AI. Dlatego ważne jest, aby uzyskać jasność co do tego, na co należy zwrócić uwagę, podczas gdy sztuczna inteligencja rzeczywiście nadal zmienia się i ewoluuje w szybkim tempie. Każda nowa technologia wiąże się z ryzykiem i zawsze są dwie strony medalu. Są więc nagrody, a także ryzyko. Niezwykle ważne jest, abyśmy jako jednostki i organizacje zrozumieli obie strony - ograniczenia, co może pójść nie tak i jak możemy skorzystać ze sztucznej inteligencji, a także jakie rzeczy należy wprowadzić, aby umożliwić nam bezpieczne korzystanie ze sztucznej inteligencji. Jeśli więc zaczniemy od przyjrzenia się niektórym korzyściom płynącym ze sztucznej inteligencji, to oczywiście na pierwszy plan wysuwa się wydajność i produktywność. Wiemy, że sztuczna inteligencja może zautomatyzować powtarzalne zadania i uwolnić trochę czasu, abyśmy mogli skupić się na bardziej wymagającej lub kreatywnej pracy, co z kolei może prowadzić do zwiększenia produktywności w różnych branżach lub codziennej działalności. Sztuczna inteligencja może więc napędzać innowacje w różnych dziedzinach, takich jak transport, opieka zdrowotna, finanse. Aby podać jeden praktyczny przykład, algorytmy sztucznej inteligencji mogą analizować dane medyczne w celu poprawy diagnostyki i różnych planów leczenia. Wreszcie, moglibyśmy również omówić analizę danych, dzięki czemu sztuczna inteligencja może bardzo szybko przetwarzać i analizować ogromne ilości danych, dając nam wgląd w czasie rzeczywistym, który może ostatecznie doprowadzić nas do lepszego podejmowania decyzji, a także planowania strategicznego. Przyjrzyjmy się zatem niektórym zagrożeniom związanym ze sztuczną inteligencją. Przede wszystkim brak przejrzystości. Tak więc w systemach sztucznej inteligencji może występować tendencja do braku przejrzystości, szczególnie gdy patrzymy na modele głębokiego uczenia się, które czasami mogą być skomplikowane w interpretacji. Czasami może to wpływać na proces podejmowania decyzji, a także na zrozumienie logiki tych technologii. A kiedy ludzie nie są w stanie zrozumieć, w jaki sposób system sztucznej inteligencji dochodzi do swoich wniosków, może to faktycznie prowadzić do pewnej nieufności konsumentów i niechęci do faktycznego przyjęcia tych technologii. Obawy o prywatność - wykorzystanie sztucznej inteligencji do gromadzenia i analizy danych może prowadzić do wielu naruszeń prywatności, jeśli oczywiście nie jest odpowiednio regulowane. Zagrożenia bezpieczeństwa - sztuczna inteligencja może być wykorzystywana do dobrych celów, ale może być również wykorzystywana do złych celów. I może być wykorzystywana złośliwie w tworzeniu deepfake'ów, jak również do automatyzacji cyberataków. A potem, oczywiście, pojawia się kwestia etycznego wykorzystania sztucznej inteligencji. Tak więc zaszczepiamy wartości moralne i etyczne w systemach sztucznej inteligencji, zwłaszcza tych, które mają kontekst decyzyjny z dość znaczącymi, potencjalnie, konsekwencjami. Może to stanowić pewne wyzwanie, uprzedzenia i dyskryminację. Systemy sztucznej inteligencji mogą czasami wzmacniać istniejące uprzedzenia, jeśli są szkolone na nieobiektywnych danych. Chodzi więc o zrównoważenie ryzyka i korzyści. Świetnie. A więc sztuczna inteligencja jest tutaj. Wiemy, że możemy ją wykorzystać, by osiągać lepsze wyniki. Ale co teraz? Jak już wspomnieliśmy, organizacje chcą szybko wdrożyć sztuczną inteligencję w celu wprowadzenia innowacji, usprawnienia niektórych procesów, potencjalnego włączenia jej do niektórych swoich produktów lub usług. I oczywiście jest to kwestia zapału branży. Nie chcemy więc pozostać w tyle za naszymi rówieśnikami i konkurentami z branży. Organizacje starają się więc ustalić, jaka jest ich strategia w zakresie sztucznej inteligencji - gdzie i jak mogą zacząć. Jednym z najważniejszych tematów w obliczu tego ogromnego zagadnienia, jakim jest sztuczna inteligencja, jest kwestia zarządzania nią. Tak więc, aby zmaksymalizować korzyści płynące ze sztucznej inteligencji przy jednoczesnym ograniczeniu ryzyka, naprawdę ważne jest, abyśmy wdrożyli solidne ramy zarządzania, zapewnili przejrzystość i uczciwość w systemach sztucznej inteligencji oraz oczywiście promowali ciągłe uczenie się. I w nawiązaniu do kwestii zarządzania przechodzimy do niedawno wydanej normy ISO 42001 dla systemu zarządzania sztuczną, która może nas wesprzeć w osiąganiu lepszych rezultatów. Jest to więc plan projektowania i wdrażania zarządzania sztuczną inteligencją w organizacji. Zapewnia on całkiem niezły i elastyczny podręcznik dla organizacji, która myśli o wdrożeniu sztucznej inteligencji lub wykorzystuje sztuczną inteligencję, rozwija sztuczną inteligencję i skłania organizację do zastanowienia się przed rozpoczęciem podróży w kierunku sztucznej inteligencji. Wiąże się to z zasadami, obowiązkami i oczywiście zarządzaniem sztuczną inteligencją w organizacji. Jest to więc bardzo ważne z tego punktu widzenia. Tak więc ten standard jest świetny, ponieważ daje wskazówki i plan, jak podejść do tego tematu. Zanim zaczniecie działać, dokładnie przemyślcie, jakie są przypadki użycia sztucznej inteligencji w waszych organizacjach. Na przykład, czy jako organizacja podążamy ścieżką sztucznej inteligencji, która nie jest dość mądra z punktu widzenia potencjalnego wpływu i ryzyka? I jakie są niektóre z kluczowych kwestii, o których musimy pamiętać, jeśli zdecydujemy się pójść tą ścieżką z AI? Zakwalifikowałbym więc ten standard jako naprawdę pierwszy krok i przewodnią linię bazową. Jak mówię, zarządzanie tym wszystkim, różne procesy, polityki, cele i ludzie niezbędni do prowadzenia programu AI, w którym możemy zmaksymalizować wszystkie korzyści i uniknąć ryzyka związanego z wykorzystaniem tak potężnych narzędzi. Jeśli chcesz dowiedzieć się więcej o tym, czym jest system zarządzania AI i jak możesz czerpać z niego korzyści, odwiedź stronę www.dnv.pl assurance/certyfikacja/iso-42001-ai-management. Na tej stronie znajduje się również link do naszej najnowszej ankiety Viewpoint, która analizuje, w jaki sposób firmy podchodzą do sztucznej inteligencji i na jakim są etapie. Dziękuję za wysłuchanie dzisiejszego odcinka programu DNV Jak się poruszać po zabezpieczeniach AI? poświęconego ryzyku i korzyściom związanym ze sztuczną inteligencją. Dołącz do mnie następnym razem, gdzie przyjrzymy się wypełnianiu luki w zaufaniu do sztucznej inteligencji. |
Dzień dobry. Witamy z powrotem w podcascie DNV, wiodącej na świecie niezależnej jednostki certyfikującej i dostawcy szkoleń: Jak się poruszać po zabezpieczeniach AI. Nazywam się Thomas Douglas, jestem Globalnym Menedżerem ds. Branży ICT w DNV. W poprzednim odcinku przyjrzeliśmy się ryzyku i korzyściom związanym ze sztuczną inteligencją dla firm rozpoczynających swoją przygodę ze sztuczną inteligencją. Dzisiaj przyjrzymy się temu, jak firmy mogą wypełnić barierę zaufania dotyczącą sztucznej inteligencji, aby przezwyciężyć obawy związane z bezpieczeństwem i etyką. Tak, istnieje pewna bariera zaufania w stosunku do sztucznej inteligencji. Zasadniczo wiąże się to z tym, o czym rozmawialiśmy w poprzedniej części dotyczącej różnych zagrożeń i korzyści związanych ze sztuczną inteligencją. Jest więc wiele tego, co można nazwać angielskim termimen FUD - strach, niepewność i wątpliwości - tak jak to było w przypadku większości nowych technologii w przeszłości. Jest to w dużej mierze spowodowane bardzo realnym ryzykiem, które istnieje, oraz faktem, że tempo innowacji i możliwości związane ze sztuczną inteligencją zmienia się praktycznie każdego dnia. Pojawia się więc pytanie, jak możemy to wykorzystać? Istnieje więc kilka powodów, dla których ludziom i organizacjom może brakować pewności, że sztuczna inteligencja jest bezpieczna, niezawodna i etyczna. Niektóre z nich to dezinformacja i błędna informacja, zatem sztuczna inteligencja może być wykorzystywana do tworzenia i rozpowszechniania fałszywych informacji, które często mogą być szkodliwe i wprowadzające w błąd. Istnieją oczywiście obawy dotyczące bezpieczeństwa i ochrony. Systemy te mogą być podatne na ataki hakerskie i inne zagrożenia bezpieczeństwa. A to może prowadzić do poważnych konsekwencji - tego, co nazwalibyśmy problemem czarnej skrzynki. Tak więc wiele systemów sztucznej inteligencji ma tendencję do działania w sposób, który nie jest w pełni transparentny lub zrozumiały dla nas. Czasami może to utrudniać zaufanie decyzjom podejmowanym za nas przez sztuczną inteligencję I obawy natury etycznej - istnieje sporo kwestii etycznych związanych ze sztuczną inteligencją, takich jak stronniczość w podejmowaniu decyzji naruszających prywatność. Oraz potencjał, jaki istnieje, by sztuczna inteligencja mogła zaszkodzić jednostkom lub społeczeństwu. Ostatecznie jednak sztuczna inteligencja rzeczywiście przynosi nowe wyzwania i zagrożenia, ale można im zaradzić poprzez odpowiedzialne wdrażanie innowacji, środków bezpieczeństwa i ochrony. Tak więc sztuczna inteligencja naprawdę nie jest czymś, czego powinniśmy się obawiać, ale czymś, co powinniśmy starać się zrozumieć i zaakceptować, ze względu na dobro, jakie może przynieść jako narzędzie i jako partner. Tak więc zaufanie do technologii często wymaga od nas zrozumienia, jak działa, a następnie możliwości oceny jej niezawodności i oczywiście bezpieczeństwa. Abyśmy mogli zaufać sztucznej inteligencji, musi być ona godna zaufania. Tak więc kluczowe pytania dotyczące transparentności muszą być rozpatrywane równolegle z pytaniami o to, czy jest ona wdrażana w sposób odpowiedzialny i etyczny. A zwykle, gdy istnieje potrzeba zaufania publicznego w danym temacie, standardy odgrywają kluczową rolę, ponieważ promują zaufanie, zapewniając niezawodne ramy dla spójności, jakości i bezpieczeństwa. W wielu przypadkach standardy zapewniają podstawowe słownictwo, standaryzację prowadzoną przez branżę i udokumentowane najlepsze praktyki do analizy porównawczej i oceny, a wszystko to przy jednoczesnym zapewnieniu pewnej jasności i odpowiedzialności. Standardy odegrają więc kluczową rolę w wypełnieniu luki technologicznej, takiej jak sztuczna inteligencja, ponieważ nowe technologie wymagają standaryzacji w celu skalowania. Tak więc normy dotyczące zarządzania sztuczną inteligencją, takie jak ISO 42001, pomogą w kształtowaniu zarządzania, a także w odpowiedzialnym wdrażaniu sztucznej inteligencji, sprostają niektórym rosnącym oczekiwaniom społecznym w zakresie bezpieczeństwa i zaufania oraz zapewnią podstawę zgodności z przepisami. I ostatecznie, to czego wszyscy chcemy, to przyspieszyć zdolność do wykorzystania globalnego potencjału sztucznej inteligencji w bezpieczny i etyczny sposób. Oczywiście zawsze zapewniając transparentność, zaufanie i bezpieczeństwo wobec interesariuszy. Rzeczywiście istnieje pewna forma presji, aby wykazać się wiarygodnością w tej dziedzinie. Całkiem niedawno, w ramach programu zapewniania bezpieczeństwa i prywatności dostawców, Microsoft wprowadził normę ISO 42001 dla niektórych dostawców, których usługi obejmują wrażliwe wykorzystanie systemów sztucznej inteligencji. Tutaj naprawdę widzimy, że zaufanie jest ważne. Tak więc organizacje muszą wiedzieć i muszą być w stanie zweryfikować cię jako dostawcę, aby zrozumieć, w jaki sposób podchodzisz do sztucznej inteligencji? Czy jest to bezpieczne? Czy jest to niezawodne? Czy jest godna zaufania? W ten sposób ostatecznie przyczyni się to do bezpieczniejszego i pewniejszego ekosystemu sztucznej inteligencji. Jeśli chcesz dowiedzieć się więcej o tym, w jaki sposób certyfikacja ISO może pomóc Twojej firmie zniwelować barierę zaufania w stosunku do sztucznej inteligencji, odwiedź stronę https://www.dnv.pl/assurance/certyfikacja/iso-42001-ai-management/, gdzie znajdziesz szczegółowe artykuły oraz nasze zasoby certyfikacyjne i szkoleniowe. Na tej stronie znajduje się również link do naszego internetowego narzędzia do samooceny, którego można użyć do dogłębnego zrozumienia gotowości organizacyjnej, poziomu odniesienia do standardu i obszarów, w których należy podjąć wysiłki na rzecz poprawy. Dziękujemy za wysłuchanie dzisiejszego odcinka podcastu DNV: Jak się poruszać po zabezpieczeniach AI na temat niwelowania bariery zaufania w zakresie AI. Dołącz do nas w następnym odcinku, w którym przyjrzymy się, jak wdrożyć skuteczne zarządzanie sztuczną inteligencją. |
Dzień dobry. Witamy z powrotem w podcascie DNV, wiodącej na świecie niezależnej jednostki certyfikującej i dostawcy szkoleń: Jak się poruszać po zabezpieczeniach AI. Nazywam się Thomas Douglas, jestem Globalnym Menedżerem ds. Branży ICT w DNV. W pierwszych dwóch odcinkach przyjrzeliśmy się ryzyku i korzyściom związanym ze sztuczną inteligencją dla firm rozpoczynających swoją przygodę z AI oraz temu, jak wypełnić barierę zaufania. W dzisiejszym i ostatnim odcinku przyjrzymy się praktycznym krokom w celu wdrożenia skutecznego zarządzania, aby zapewnić bezpieczną, niezawodną i etyczną eksploatację AI. A więc ISO 42001. Jest to międzynarodowa norma, która określa wymagania dotyczące ustanowienia, wdrożenia, utrzymania i ciągłego doskonalenia systemu zarządzania sztuczną inteligencją lub w skrócie „AIMS”. Norma ISO 42001 jest przeznaczona do stosowania przez organizacje dowolnej wielkości zaangażowane w opracowywanie, dostarczanie lub korzystanie z produktów lub usług wykorzystujących systemy sztucznej inteligencji, zapewniając ich odpowiedzialny rozwój i wykorzystanie. Jest przeznaczona dla każdego rodzaju i wielkości organizacji i branży, dla agencji globalnych, krajowych, regionalnych, non-profit i sektora publicznego. ISO 42001 jest pierwszym na świecie certyfikowanym standardem systemu zarządzania sztuczną inteligencją i dostarcza cennych wskazówek dla tej szybko zmieniającej się dziedziny technologii. Odnosi się do wyjątkowych wyzwań, jakie stawia sztuczna inteligencja, takich jak kwestie etyczne, transparentność i ciągłe uczenie się. W przypadku organizacji norma ISO 42001 określa ustrukturyzowany sposób zarządzania ryzykiem i możliwościami związanymi ze sztuczną inteligencją, równoważąc innowacje z zarządzaniem. Systemy zarządzania jakością zapewniają podstawowy poziom odpowiedzialności, powtarzalności i audytowalności, a norma 42001 jest wzorowana na tych zestawach zasad i struktur. W związku z tym można ją całkiem dobrze zintegrować z innymi systemami zarządzania, takimi jak ISO 9001 lub ISO 27001. Zatem zapewnienie zaangażowania najwyższego kierownictwa: należy uzyskać zaangażowanie kierownictwa na wczesnym etapie, włączając wszystkich głównych interesariuszy w poznawanie potencjalnych zagrożeń i szkód związanych z systemami sztucznej inteligencji, ale także możliwości, jakie może zaoferować wykorzystanie sztucznej inteligencji. Jest to kluczowy krok do osiągnięcia sukcesu w procesie certyfikacji, ponieważ nadaje ton całej organizacji. Identyfikacja luk: przeanalizuj zarówno wewnętrzny, jak i zewnętrzny kontekst i pozycję AI oraz wybierz rolę jaką AI pełni w Twojej organizacji. Na przykład, czy jesteś użytkownikiem, twórcą czy dostawcą sztucznej inteligencji? A może pełnisz wiele ról? Przeprowadź analizę luk, aby ocenić aktualny stan procesów i systemów pod kątem wymagań normy ISO 42001 oraz zidentyfikować obszary, które wymagają poprawy. Ten rodzaj wstępnej oceny jest naprawdę świetnym sposobem na uzyskanie obrazu tego, gdzie obecnie znajduje się Twoja organizacja, jeśli chodzi o zgodność z niektórymi wymaganiami tej normy. Przejdź szkolenie i buduj świadomość: To naprawdę kluczowy krok w ramach 42001 i drogi organizacji do certyfikacji, ponieważ buduje wewnętrzną wiedzę i kompetencje w podstawowym zespole, który ostatecznie odegra ważną rolę we wdrażaniu systemu zarządzania zgodnego z normą. Szkolenia i warsztaty wyposażą Twój zespół w odpowiednie umiejętności, narzędzia i jasne zrozumienie celów i ról, jakie będą pełnić. Szkolenie jest niezbędne dla zespołu wdrożeniowego, aby zrozumieć tajniki standardu, a także zapewnić zgodność z normą ISO 42001 i wykorzystywanie sztucznej inteligencji w bezpieczny, odpowiedzialny i etyczny sposób. Zapoznaj się z naszym podręcznym ośmioetapowym przewodnikiem i zasobami szkoleniowymi na stronie https://www.dnv.pl/assurance/certyfikacja/iso-42001-ai-management/ i dowiedz się, jak możesz uzyskać certyfikat ISO 42001. W podziękowaniu za wysłuchanie, mam przyjemność zaoferować kod promocyjny dla pierwszych 25 osób, które zapiszą się na nasz kurs e-learningowy, który ma na celu umożliwienie uczestnikom zdobycia podstawowej wiedzy na temat wymagań tej normy, a także zapewnienie podstawowej wiedzy wymaganej do jej wdrożenia. Dziękujemy za wysłuchanie serii DNV: Jak się poruszać po zabezpieczeniach AI, w której przeprowadziliśmy firmy rozpoczynające swoją przygodę ze sztuczną inteligencją przez niektóre z kluczowych rozważań i praktycznych kroków w kierunku bezpiecznego, niezawodnego i etycznego przyjęcia i wykorzystania sztucznej inteligencji. Sztuczna inteligencja to stale ewoluująca i szybko zmieniająca się przestrzeń, więc pamiętaj, aby nadal śledzić DNV, aby uzyskać więcej porad i wsparcia - możesz nas znaleźć na LinkedIn i odwiedzić naszą stronę internetową, aby uzyskać regularny dostęp do informacji. Dziękuję i do widzenia. |