Strona główna Blog Strona 3

AI będzie zarządzać przechowywaniem danych. Wykryje atak poniżej minuty i zadba o bezpieczeństwo

0

Obawy o bezpieczeństwo danych to jedno z najpoważniejszych wyzwań w biznesie w kontekście cyberzagrożeń. Raport IBM szacuje, że w ubiegłym roku średni koszt naruszenia bezpieczeństwa danych wyniósł 4,4 mln dol. Był on nieco niższy niż rok wcześniej, do czego przyczynił się postęp w zakresie szybszego wykrywania i blokowania ataków. Dużą rolę odgrywa w tym postępie sztuczna inteligencja, która automatyzuje reakcję na anomalie. IBM wbudowuje agentową AI w swoje systemy pamięci masowych, które mają nie tylko zapewnić lepszą, proaktywną ochronę danych, lecz również wspomóc zarządzanie nimi.

 Na współczesnym rynku zagrożenia związane z przechowywaniem danych należą do najczęstszych obaw naszych klientów. Są one oczywiście związane z cyberbezpieczeństwem, ochroną danych i niezawodnością systemów. Jeśli sztuczna inteligencja jest silnikiem każdej działalności biznesowej w obszarze IT, przechowywanie danych jest jej układem paliwowym – podkreśla w rozmowie z agencją Newseria Stefano Rebattoni, dyrektor generalny IBM na region Europy Północnej, Środkowej i Wschodniej.

Jak podaje IBM, tradycyjne podejście do przechowywania danych, oparte głównie na ręcznym zarządzaniu i reakcji na incydenty, przestaje odpowiadać realiom rynku. Wraz z rosnącą liczbą ataków ransomware oraz wykorzystaniem sztucznej inteligencji przez cyberprzestępców kluczowe staje się wczesne wykrywanie zagrożeń i zdolność do automatycznej reakcji. Według badania IBM Institute for Business Value 76 proc. kadry zarządzającej deklaruje, że ich organizacje rozwijają lub skalują projekty oparte na autonomicznych agentach AI, co zwiększa zapotrzebowanie na inteligentne rozwiązania infrastrukturalne. Tę zmianę widać m.in. w kategorii pamięci masowych, które użytkownicy mogą teraz przekształcić w aktywną, inteligentną warstwę infrastruktury, umożliwiającą wydajne i bezpieczne operacje storage.

 AI odgrywa kluczową rolę w systemach przechowywania danych, ponieważ przechodzimy od statycznego zarządzania danymi na platformach w kierunku proaktywnego modelu, który jest w stanie z wyprzedzeniem wykryć nadchodzące cyberataki i próby wykradzenia danych. Może też wspierać podmioty zarządzające danymi w podejmowaniu bardziej proaktywnych i szybszych decyzji, również jeśli chodzi o wsparcie biznesu, oczywiście za pomocą narzędzi AI wbudowanych w nowoczesne systemy przechowywania danych – ocenia Stefano Rebattoni.

Nowa generacja pamięci masowych – IBM FlashSystem 5600, 7600 i 9600 – jest współzarządzana przez agentową sztuczną inteligencję. Pomaga to przekształcić pamięć masową ze statycznego magazynu w system, który samodzielnie się doskonali. Zestaw inteligentnych usług danych FlashSystem.ai wspiera administratorów w zarządzaniu, monitorowaniu, diagnozowaniu oraz usuwaniu problemów w całym łańcuchu przetwarzania danych.

 Możemy się przyjrzeć zmianom w zachowaniu użytkownika i działaniu aplikacji, sekwencji operacji wejścia/wyjścia, sposobie umieszczania danych na dysku i dzięki temu rozpoznawać problemy, zanim one wystąpią, na przykład cyberataki. Możemy się również zająć optymalizacją działania systemu, umieszczając dane w określonych miejscach lub przenosząc aplikacje między macierzami pamięci masowej, dzięki czemu administratorzy centrów danych zyskują najlepsze możliwe narzędzia do korzystania ze swoich systemów, a użytkownicy końcowi korzystają dzięki najniższym kosztom i najlepszym parametrom – podkreśla Sam Werner, dyrektor generalny IBM Storage.

Z wyliczeń IBM wynika, że agentowa sztuczna inteligencja pozwala ograniczyć nakład pracy związany z codziennym zarządzaniem pamięcią masową nawet o 90 proc. w porównaniu z tradycyjnymi metodami administracyjnymi.

– AI będzie pewnym uzupełnieniem tego, co robi administrator sieci storage’owej, podrzucając informacje o aktualnie pojawiających się zagrożeniach, optymalizując wykorzystanie całego zasobu pamięci, podkręcając wydajność w tych miejscach, w których jest ona potrzebna, czy wręcz przeciwnie – w sytuacji, w której następuje bardzo poważny wzrost obciążenia modułu, system automatycznie doprowadzi do powrotu równowagi, zoptymalizuje wykorzystanie, zwiększy wydajność i pozwoli bezpiecznie przetwarzać dane – wyjaśnia Marcin Gajdziński, dyrektor generalny IBM Polska, kraje bałtyckie i Ukraina.

Jak wskazują przedstawiciele IBM, nowa generacja zapewnia o 40 proc. wyższą efektywność wykorzystania danych w porównaniu z poprzednią, łącząc lepsze wykorzystanie pojemności z wyższą wydajnością. Wykorzystanie agentów AI ma przede wszystkim zwielokrotnić odporność systemów przechowywania danych. Moduły FlashCore piątej generacji umożliwiają analizę statystyk dla każdej operacji wejścia i wyjścia w czasie rzeczywistym, bez wpływu na wydajność systemu. Dzięki temu możliwe jest szybkie wykrycie ataku ransomware oraz utrzymanie niskiego poziomu fałszywych alarmów (poniżej 1 proc.). IBM podkreśla, że mechanizmy są trenowane na dziesiątkach miliardów punktów telemetrycznych pochodzących z rzeczywistych środowisk produkcyjnych.

– Dzisiejsze ataki są coraz bardziej zaawansowane. Oszuści korzystają z AI, aby uzyskać dostęp do systemów. Jeśli podmiot znajdujący się po drugiej stronie nie korzysta z AI, czy może mieć pewność, że nie grozi mu atak? Dzięki modułowi IBM FlashCore jesteśmy w stanie wykryć każdy przypadek dostępu z użyciem AI do urządzenia przechowującego dane i wykryć atak w czasie poniżej minuty. IBM daje gwarancję wykrycia ataku w tym czasie. Za pomocą zabezpieczonej technologii kopiowania możemy wykonać kopie danych przy logicznej izolacji systemu, które umożliwiają powrót do działania po ataku w czasie krótszym niż minuta – wyjaśnia Sam Werner.

Raport IBM „Cost of a Data Breach” wskazuje, że w ubiegłym roku organizacje, które powszechnie stosowały AI w różnego rodzaju cyberzabezpieczeniach, odnotowały średnio o 1,9 mln dol. niższe koszty związane z atakami w porównaniu do organizacji, które takich rozwiązań nie wdrożyły.

Przedstawiciele koncernu podkreślają, że jednoczesna premiera trzech modeli jest najważniejszą zmianą w ofercie IBM FlashSystem w ostatnich sześciu latach. Obejmuje ona rozwiązania przeznaczone zarówno dla mniejszych firm, jak i dla dużych organizacji operujących na krytycznych danych, a w zależności od modelu pozwalają one ograniczyć zapotrzebowanie na przestrzeń storage nawet o 30–75 proc.

– Oferujemy rozwiązania podstawowe na małą skalę, z których korzystać może każdy, ale funkcje w nich dostępne są takie same, jakie oferujemy na przykład największym bankom na świecie. Mamy więc rozwiązania na poziomie podstawowym, średnim i zaawansowanym, które łączy ten sam system operacyjny i technologia AI oparte na nowej technologii flash – podkreśla dyrektor generalny IBM Storage.

Według IBM Polska należy do krajów o wysokim tempie wdrażania nowoczesnych systemów pamięci masowej w regionie Europy Środkowo-Wschodniej. Na tle Europy Zachodniej czy Stanów Zjednoczonych nasz kraj również wypada bardzo dobrze.

– W Polsce biznes ma gigantyczne zapotrzebowanie na dane, a co za tym idzie, na urządzenia, narzędzia i techniki ich przechowywania. Jest to związane przede wszystkim z dynamicznym rozwojem praktycznie wszystkich branż, poczynając od bankowości, ubezpieczeń, przez firmy z sektora retail, dystrybucję, logistykę, na produkcji kończąc – ocenia Marcin Gajdziński. 

Źródło: https://biznes.newseria.pl/news/ai-bedzie-zarzadzac,p170678506

Branża IT w Polsce powoli się odbudowuje. Firmy coraz częściej szukają wąskich wyspecjalizowanych kompetencji

0

Po trwającym dwa lata spowolnieniu branża IT w Polsce zaczyna się odbudowywać, ale rynek funkcjonuje dziś na innych zasadach niż kilka lat temu. Rosnące znaczenie sztucznej inteligencji zmienia sposób pracy zespołów i podejście firm do rekrutacji, w której coraz większą rolę odgrywają wyspecjalizowane kompetencje. Kolejne kwartały to może być dobry okres dla seniorów i inżynierów specjalizujących się w wąskich dziedzinach.

 Branża IT powoli zaczyna się budzić. Nie jest to jeszcze eldorado, aczkolwiek widzimy lekki wzrost jej potencjału. Nasze predykcje rynkowe, poparte przez analizy Gartnera, pokazują, że transformacja rynku będzie jeszcze bardziej postępować w kierunku sztucznej inteligencji – ocenia w rozmowie z agencją Newseria Paweł Łopatka, dyrektor zarządzający Experis Poland, części ManpowerGroup.

Według analiz Gartnera globalne wydatki na technologie informatyczne mają w 2026 roku osiągnąć 6,15 bln dol., co oznacza wzrost o 10,8 proc. w porównaniu z 2025 rokiem. Analitycy wskazują, że jednym z głównych motorów tego wzrostu pozostaje dalszy rozwój infrastruktury sztucznej inteligencji, w tym systemów generatywnych, platform danych oraz rozwiązań chmurowych.

Rosnące inwestycje w technologie oparte na AI przekładają się na popyt na konkretne kompetencje. Firmy koncentrują się na wdrażaniu i integracji zaawansowanych rozwiązań technologicznych, co powoduje, że rośnie zapotrzebowanie na doświadczonych specjalistów, a jednocześnie maleje rola zawodów o powtarzalnym charakterze.

– Inżynierowie będą musieli mocno się przebranżawiać i stać się ekspertami w obszarze generatywnej sztucznej inteligencji. Największy potencjał w branży IT będą mieli seniorzy, seniorzy+, architekci, czyli osoby, które umieją orkiestrować sztuczną inteligencję. To będą obszary, gdzie będzie widoczny największy wzrost i potencjał – ocenia Paweł Łopatka.

Dane serwisu ogłoszeń dla branży IT Just Join IT pokazują, że w 2025 roku opublikowano 110 996 ofert pracy, co oznacza wzrost o 8,4 proc. w porównaniu z 2024 rokiem. Był to pierwszy wzrost po dwóch latach spadków, ale liczba ofert pozostaje istotnie niższa niż w rekordowym 2022 roku. Ponad połowa ogłoszeń dotyczyła stanowisk seniorskich, a udział ofert juniorskich był marginalny. Oferty skierowane do juniorów stanowiły 4,79 proc. wszystkich ogłoszeń, co jest najniższym poziomem od lat. Większość ofert dotyczyła stanowisk wymagających doświadczenia i samodzielności – te skierowane do specjalistów mid-level stanowiły 43,73 proc. ofert, a do seniorów – 51,48 proc.

 Wszystko idzie w kierunku tego, że będzie orkiestrator sztucznej inteligencji, czyli doświadczony senior, architekt, który zna się na systemach generatywnych i modelach językowych oraz będzie umiał skoordynować boty sztucznej inteligencji, by wykonywały tę pracę – ocenia ekspert.

Rozwój narzędzi opartych na sztucznej inteligencji sprawia, że coraz więcej zadań wykonywanych dotąd manualnie jest automatyzowanych, a struktura zespołów ulega spłaszczeniu. W praktyce oznacza to większą rolę koordynacji i nadzoru nad systemami, a mniejszą liczbę osób realizujących powtarzalne czynności programistyczne. Według analiz Gartnera coraz większa część pracy w IT realizowana jest w modelu wspieranym przez sztuczną inteligencję, co wpływa na strukturę popytu na kompetencje oraz oczekiwania wobec pracowników branży technologicznej.

Firmy oczekują od inżynierów umiejętności pracy z narzędziami opartymi na AI oraz zdolności adaptacji do szybko zmieniających się warunków technologicznych. Brak kompetencji w obszarze sztucznej inteligencji coraz częściej staje się barierą w realizacji projektów.

– Naturalne będzie przekwalifikowanie i podnoszenie kompetencji inżynierów właśnie w tym kierunku. Jednak doświadczenie, które oni mają w tym momencie, jest kluczowe, bo co będzie, jeśli sztuczna inteligencja wyłączy się choćby na dwa dni? Musimy być w stanie jednak stworzyć kawałek kodu i pchnąć projekt do przodu, więc zdecydowanie rynek będzie się transformował – ocenia Paweł Łopatka.

Jak wynika z analizy Experis, jednocześnie polski rynek IT odczuwa deficyt talentów, najsilniej w obszarach cyberbezpieczeństwa, chmury, danych, AI oraz ról eksperckich. W erze sztucznej inteligencji zmienia się profil programisty, coraz cenniejsze stają się kompetencje integracyjne, umiejętność pracy z platformami, chmurą oraz myślenie systemowe. IT przestało być postrzegane wyłącznie jako zaplecze techniczne, dziś odgrywa kluczową rolę w budowaniu przewagi konkurencyjnej firm.

– Firmy będą się skupiać na mocno wyspecjalizowanej części branży, jakościowo też, zatem usługi o wysokiej wartości będą miały bardzo duże znaczenie. Mówimy tutaj o obszarze data, JavaScript, analityce danych, cybersecurity i wszystkich big techach typu SAP, ServiceNow, Salesforce. Na to na pewno będzie mocny popyt – mówi dyrektor zarządzający Experis Poland.

Według danych dotyczących rekrutacji IT w I kwartale 2026 roku widać, że firmy planujące zatrudniać koncentrują się na wąskich, wyspecjalizowanych profilach kompetencyjnych, szczególnie w obszarach związanych z nowymi technologiami. Takie podejście do rekrutacji jest bezpośrednio związane z presją kosztową w branży.

– Budżety też za bardzo nie urosną w IT, więc będzie mocny nacisk na to, żeby implementować narzędzia i infrastrukturę do sztucznej inteligencji, jednocześnie kompensując koszt wdrożenia przez optymalizację innych kosztów – prognozuje Paweł Łopatka.

Źródło: https://biznes.newseria.pl/news/branza-it-w-polsce-powoli,p1618801269

Pracodawcy odczuwają presję związaną z rozwojem technologii. Dla wielu z nich to poważne wyzwanie

0

Ponad połowa dużych firm wdraża lub planuje w kolejnych sześciu miesiącach inwestycje w automatyzację lub sztuczną inteligencję w procesach firmowych. Co czwarta nie ma takich planów w najbliższym czasie – wynika z raportu Trenkwalder Polska przeprowadzonego na 500 pracodawcach. W przypadku małych i średnich przedsiębiorstw proporcje są odwrotne i zdecydowanie więcej jest odpowiedzi negatywnych. Jednocześnie 16 proc. ogółu firm przyznaje, że dużym wyzwaniem jest dla nich rosnąca presja na rozwój technologii i transformację technologiczną.

– Wydaje się, że w obecnych czasach, kiedy każdego dnia spotykamy się z informacjami o nowych technologiach i ich rozwoju, cyfryzacja powinna być czymś, co już się dzieje, naturalnym trendem. Okazuje się jednak, że nie do końca tak jest – mówi agencji Newseria Ewelina Glińska-Kołodziej, prezes agencji zatrudnienia Trenkwalder Polska i członek zarządu Polskiego Forum HR.

Badanie przeprowadzone w listopadzie 2025 roku na potrzeby raportu „Wyzwania Pracodawców” wskazuje, że 23,4 proc. z badanych 500 firm wdraża już rozwiązania z zakresu automatyzacji i sztucznej inteligencji. Szczególnie mowa o technologiach w zakresie HR tech. Tylko 14,4 proc. ma w planach takie inwestycje w ciągu sześciu miesięcy, a 24 proc. – w dalszej perspektywie. Ponad 38 proc. badanych przedsiębiorstw podkreśla, że nie planuje takich wdrożeń. Jak podkreślają autorzy raportu, konieczność dostosowania się do tempa przyspieszającej rewolucji cyfrowej nakłada na przedsiębiorców dodatkową presję rozwoju technologicznego i rozbudowy infrastruktury cyfrowej. 16 proc. twierdzi, że jest ona dla nich wyzwaniem. 

– Duże organizacje mają systemowe podejście i cyfryzują się szybciej i bardziej, podobnie agencje zatrudnienia, natomiast w przypadku małych i średnich przedsiębiorstw sytuacja wygląda trochę inaczej – podkreśla Ewelina Glińska-Kołodziej. – Plany inwestycji w cyfryzację i AI w 2026 roku są bardzo ostrożne. Wprawdzie ponad połowa dużych przedsiębiorstw już dziś jest w trakcie lub rozpoczęła jakieś procesy cyfryzacji, natomiast nadal 20 proc. firm mówi, że być może wejdą w cyfryzację, ale dopiero w drugiej połowie 2026 roku. Prawie 1/4 dużych przedsiębiorstw mówi o tym, że na razie nie planuje żadnych wdrożeń.

W przypadku średnich firm taką negatywną odpowiedź dało prawie 37 proc. badanych podmiotów, a w przypadku małych – blisko połowa (48 proc.).

– Duże firmy mają duże zaplecze IT, globalne rozwiązania, mają więcej zasobów, aby móc inwestować i angażować zespoły we wdrażanie cyfryzacji. Małe i średnie przedsiębiorstwa mają te zasoby bardzo ograniczone – wyjaśnia prezes Trenkwalder Polska.

Spośród małych firm 28 proc. inwestuje lub planuje zainwestować w cyfryzację w najbliższym półroczu, a 24 proc. – w dalszej perspektywie. Autorzy raportu wskazują, że te podmioty odczuwają relatywnie mniejszą presję na automatyzację (64 proc. w porównaniu do 83,3 proc. w przypadku dużych korporacji).

– Motywacją do wdrażania cyfryzacji przez firmy są bardzo konkretne argumenty. Pierwszym są koszty i produktywność, czyli mniej pracy, mniej zasobów, mniej angażowania pracowników czy nowych pracowników, na pewno też braki kadrowe i konieczność odciążenia specjalistów w firmie. Kolejnym jest eliminowanie papieru i dzięki temu zwiększanie bezpieczeństwa danych w firmie, a także możliwość skalowania procesów i utrzymania tej samej jakości – wymienia Ewelina Glińska-Kołodziej.

Cyfryzację mogą też wymóc na firmach zachodzące zmiany legislacyjne i wymogi stawiane przez ustawodawcę.

– Przykładem jest cyfryzacja legalizacji pracy obcokrajowców czy regulacje KSeF, które wymogą na firmach cyfryzację obszaru faktur i księgowania – wskazuje prezes Trenkwalder Polska.

Podobne dysproporcje w inwestycjach widać w firmach z branży HR. Raport „HR Tech Changer 2025” opublikowany niedawno przez Polskie Forum HR wskazuje, że agencje i firmy rekrutacyjne masowo wdrażają rozwiązania oparte na automatyzacji i sztucznej inteligencji, a małe organizacje nadal często prowadzą HR w modelu analogowym. O ile w pierwszej grupie 98 proc. specjalistów wykorzystuje narzędzia z obszaru HR tech, o tyle w tej drugiej jest to 62 proc.

– Duża ostrożność w planowaniu i wdrożeniach inwestycji wynika oczywiście z ograniczonych budżetów, małych zespołów i braków kompetencyjnych. Firmy mają też świadomość informacji, które już z rynku przychodzą, że de facto 95 proc. przeróżnych inwestycji lub rozpoczętych projektów opartych na technologii AI właściwie nigdy nie ujrzy światła dziennego i zostaje zamkniętych przed wdrożeniem. Dlatego firmy są bardzo ostrożne, i bardzo dobrze, bo warto dobrze zaplanować, zaprojektować wdrożenia i zastanowić się, co one mają przynieść, co warto automatyzować, gdzie warto inwestować w technologię AI, a gdzie warto pewne obszary działalności oddać firmom zewnętrznym, które już tę cyfryzację, automatyzację wdrożyły. Myślę jednak nadal, że zachowanie konkurencyjności będzie wymagało zmian w technologiach i procesach w każdej organizacji – ocenia Ewelina Glińska-Kołodziej.

Technologia w HR najczęściej wspiera procesy związane z rekrutacją, m.in. selekcją kandydatów (32 proc.), ich pozyskiwaniem (25 proc.) czy zarządzaniem bazą kandydatów (19 proc.). Jednocześnie w większych organizacjach rozwiązania cyfrowe wspierają już niemal każdy etap cyklu życia pracownika – od selekcji i oceny kompetencji, przez digitalizację dokumentacji i zarządzanie czasem pracy, aż po wellbeing i benefity. Eksperci podkreślają, że technologia może przynieść wymierne korzyści w postaci oszczędności czasu, zmniejszenia liczby błędów czy zaawansowanej analizy danych. Raport Polskiego Forum HR wskazuje jednak, że wraz z rozwojem technologii rośnie też świadomość jej wad czy związanych z nią zagrożeń. Wśród największych wyzwań pojawiają się kwestie zachowania prywatności i bezpieczeństwa danych oraz błędów algorytmicznych i stronniczości AI.

Źródło: https://biznes.newseria.pl/news/pracodawcy-odczuwaja,p806435916

Europa chce do 2030 roku uniezależnić się od importu surowców krytycznych. Polska może być tu ważnym graczem

0

Recykling surowców krytycznych przestaje być wyłącznie elementem ekologii, a staje się jednym z filarów bezpieczeństwa gospodarczego Europy. Pierwiastki te, wykorzystywane m.in. w energetyce, motoryzacji czy biomedycynie, pochodzą dziś głównie z importu z państw trzecich. Unia Europejska chce, by do 2030 roku przynajmniej jedna czwarta zapotrzebowania na surowce krytyczne pochodziła z recyklingu. Eksperci Deloitte’a wskazują, że Polska może odegrać w tym procesie kluczową rolę.

Europa buduje swoją niezależność surowcową. Do tej pory przez wiele lat bazowaliśmy na imporcie surowców krytycznych, czy to z Chin, czy z innych rynków zagranicznych, natomiast teraz Europa coraz bardziej dostrzega potrzebę wydobywania surowców krytycznych już nie z głębi ziemi, tylko z tego, co mamy zgromadzone w odpadach – mówi agencji Newseria Joanna Leoniewska-Gogola, liderka zespołu Circular Economy, dyrektorka w zespole Sustainability w Deloitte. – Jesteśmy teraz na etapie przejścia od strategii do implementacji na skalę przemysłową. Budujemy już ramy prawne, inwestujemy też w technologie i budujemy pierwsze łańcuchy odzysku, które są zamknięte w ramach Europy.

Jak wynika z danych Komisji Europejskiej i Eurostatu, w 2024 roku 95 proc. importu metali ziem rzadkich pochodziło z Chin, Malezji i Rosji. To grupa 17 pierwiastków wykorzystywanych m.in. w telefonach komórkowych, komputerach i technologiach medycznych. Dostawy magnezu – jednego z surowców krytycznych – były w niemal w całości uzależnione od Chin. Pierwiastek ten znajduje zastosowanie m.in. przemyśle motoryzacyjnym, lotniczym, elektronicznym i biomedycznym. Równie duże uzależnienie dotyczyło galu, który w 73 proc. importowany był z Państwa Środka. Na kolejnych miejscach znalazły się Kanada (13 proc.) i Rosja (11 proc.). Gal wykorzystywany jest m.in. w smartfonach, satelitach, systemach radarowych, diodach LED i ogniwach fotowoltaicznych.

– Recykling jest bardzo ważnym elementem w bezpieczeństwie surowcowym. Dlatego nie mówimy już o nim tylko w kontekście ekologii, ale i stabilności gospodarczej i przemysłowej. Im bardziej jesteśmy w stanie odzyskiwać surowce z odpadów, tym bardziej uniezależniamy się, czy to od importu surowców, czy to od napięć geopolitycznych. Skracamy również łańcuchy dostaw i wartości, w związku z czym bardzo mocno wpływamy nie tylko na ekologię, ale również ekonomię i politykę. Można powiedzieć, że recykling staje się powoli elementem infrastruktury krytycznej, podobnie jak ma to miejsce w energetyce czy logistyce – uważa Joanna Leoniewska-Gogola.

W maju 2024 roku wszedł w życie europejski akt w sprawie surowców krytycznych (Critical Raw Materials Act – CRMA), którego celem jest zagwarantowanie stabilnych, bezpiecznych i zrównoważonych pierwiastków tego typu dla unijnego przemysłu. Zgodnie z rozporządzeniem do 2030 roku import z jednego państwa trzeciego nie może przekraczać 65 proc. Co najmniej 10 proc. rocznego unijnego zużycia surowców ma być wydobywane w UE, 40 proc. przetwarzane, a 25 proc. ma pochodzić z recyklingu. Akt zakłada, że kraje unijne mają podjąć działania, które usprawnią zbiórkę odpadów bogatych w surowce krytyczne i zapewnią ich recykling na wtórne surowce krytyczne.

– Największe znaczenie mają teraz surowce krytyczne, które są niezbędne do budowania naszej transformacji cyfrowej i energetycznej. Na to Europa teraz stawia bardzo duży nacisk. Mówimy tu przede wszystkim o licie, kobalcie, niklu czy manganie, które mamy dostępne chociażby w różnych akumulatorach. Mówimy również o miedzi, srebrze i aluminium, które są dostępne w elektroodpadach, a właściwie w elektronice. Mówimy także o metalach ziem rzadkich, które są dostępne już teraz chociażby w sprzęcie IT, silnikach czy turbinach wiatrowych – wymienia dyrektorka w zespole Sustainability w Deloitte. – Mamy więc dostęp do tych surowców, natomiast kluczowe jest to, żeby je pozyskać i później odzyskać.

Ważnym elementem wdrażania rozporządzenia CRMA są projekty strategiczne, które mają zwiększyć krajowe zdolności w zakresie surowców krytycznych. W pierwszej turze naboru Komisja Europejska zatwierdziła ich 47, z 13 państw członkowskich – Belgii, Francji, Włoch, Niemiec, Hiszpanii, Estonii, Czech, Grecji, Szwecji, Finlandii, Portugalii, Rumunii i Polski. Dziesięć projektów dotyczy obszaru recyklingu surowców.

– Polska ma bardzo duży potencjał do tego, żeby uczestniczyć w łańcuchu odzysku surowców krytycznych. Z jednej strony mamy doświadczenie w dużym przemyśle, więc to już nas stawia na dosyć dobrej pozycji. Z drugiej strony mamy coraz większe kompetencje w odzyskiwaniu surowców, bo mamy sporo coraz bardziej nowoczesnych instalacji do recyklingu elektroodpadów czy baterii – mówi Joanna Leoniewska-Gogola.

W Polsce status projektu strategicznego do tej pory uzyskały dwa projekty. Jednym z nich jest Zakład Rafinacji Pierwiastków Ziem Rzadkich w Puławach, który w wyniku przetwarzania będzie produkował m.in. tlenki neodymu, prazeodymu, lantanu i ceru. To pierwiastki wykorzystywane w kluczowych gałęziach przemysłu, takich jak energia odnawialna i pojazdy elektryczne. Drugi projekt to zakład recyklingu baterii Polvolt w Zawierciu realizowany przez Elemental Battery Metals. Koncentruje się na recyklingu i odzysku metali strategicznych z baterii litowo-jonowych oraz katalizatorów. W grę wchodzą nikiel, miedź, kobalt, lit, platynowce i mangan.

– Jesteśmy też producentem baterii i różnych komponentów, chociażby do samochodów elektrycznych, w związku z czym jesteśmy naturalnym partnerem w całym łańcuchu. Mówi się też o tym, że Polska mogłaby się stać hubem odzysku dla Europy Środkowo-Wschodniej. Patrząc na cały system, mam nadzieję, że recykling odpadów i surowców stanie się jednym z filarów nowoczesnej gospodarki w Polsce – podkreśla ekspertka Deloitte’a.

Polska jest w trakcie dostosowywania przepisów do wymogów aktu o surowcach krytycznych. Trwają prace legislacyjne nad projektem ustawy, który przewiduje m.in. utworzenie pojedynczego punktu kontaktowego dla projektów strategicznych, prowadzenie ich rejestru, wdrożenie krajowego programu poszukiwań surowców krytycznych oraz systemu monitorowania ryzyk w łańcuchach dostaw. W Polsce obecnie głównie wydobywanymi surowcami krytycznymi są miedź, węgiel koksowy oraz hel.

Na jej mocy minimum raz na pięć lat ma też być aktualizowana Polityka Surowcowa Państwa.

Największym wyzwaniem w obszarze recyklingu w następnych latach jest przejście od strategii i badań laboratoryjnych po efekt skali przemysłowej. Żeby ten efekt skali uzyskać, potrzebujemy kilku elementów. Po pierwsze, dobrego ekoprojektowania produktów, żeby produkty, które zawierają surowce krytyczne, były projektowane w sposób umożliwiający ich łatwą rozbiórkę i odzysk – uważa Joanna Leoniewska-Gogola. –  Z drugiej strony musimy mieć dobre systemy zbiórki, żeby te surowce nie zalegały nam w szufladach jak stare telefony i laptopy, tylko żeby trafiały do systemu. Chodzi o to, żebyśmy uzyskiwali te surowce w takiej jakości jak surowce pierwotne i żeby recykling był konkurencyjny ekonomicznie. Z tym niestety mamy teraz problem, o to się rozbijamy, że recykling jest zbyt drogi.

Zdaniem ekspertów najbliższe lata zdecydują o tym, czy Europa zbuduje realną niezależność surowcową. W praktyce oznacza to nie tylko większe bezpieczeństwo dostaw dla przemysłu, ale także stabilniejsze ceny technologii, od których zależy transformacja energetyczna i cyfrowa – od samochodów elektrycznych po elektronikę użytkową.

Źródło: https://biznes.newseria.pl/news/europa-chce-do-2030-roku,p707764485

UODO: skarg na nowe technologie będzie coraz więcej. Deepfaki wymykają się obecnym przepisom

0

Rośnie liczba skarg dotyczących wykorzystania nowych technologii i związanych z nimi zagrożeń dla prywatności użytkowników. Jak wskazuje Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych, sprawy te są coraz bardziej złożone i wymykają się przepisom prawnym zarówno krajowym, jak i unijnym. Przykładem mogą być nadużycia związane z deepfake’ami. Dlatego, zdaniem eksperta, potrzebne są regulacje, które pozwolą skutecznie walczyć z tym zjawiskiem.

Należy się spodziewać wzrostu skarg związanych z wykorzystaniem nowych technologii. Widzimy to już obecnie. Co więcej, wpływa do nas więcej skarg bardzo skomplikowanych, dotyczących zastosowania takich nowych technologii, które nawet nie do końca są rozpoznane, np. biometrii, szyfrowania, a więc innych zabezpieczeń związanych z ochroną danych osobowych. Tych wyzwań jest coraz więcej – mówi agencji Newseria Mirosław Wróblewski. – Potrzebna jest wiedza techniczna i wzmacnianie zasobów Urzędu Ochrony Danych Osobowych, ponieważ te wyzwania już nie są wyłącznie prawne, ale też techniczne, technologiczne czy etyczne.

Jednym z obszarów, który wymaga większej uwagi w kontekście zagrożeń dla ochrony danych osobowych i wizerunku, są deepfaki. Zdaniem prezesa UODO dziś zarówno prawo polskie, jak i unijne nie daje narzędzi do walki z tym zjawiskiem i ochrony przed konsekwencjami nadużyć.

– Dowodzi tego jedna ze spraw, w których podejmowałem interwencję. Chodziło o wykorzystanie wizerunku uczennicy do wytworzenia wizerunku nagiej osoby i kolportowanie go w szkole i wśród znajomych – przypomina Mirosław Wróblewski.

Prezes UODO na początku czerwca 2025 roku w tej sprawie zawiadomił policję o możliwości popełnienia przestępstwa. Podkreślił, że postępowanie kolegów nie tylko drastycznie naruszyło prywatność 15-latki, ale też zagroziło naruszeniem jej elementarnych interesów życiowych w przyszłości. Istnieje bowiem wysokie prawdopodobieństwo możliwości jej identyfikacji. Policja odmówiła jednak wszczęcia postępowania, co później zostało zatwierdzone przez prokuraturę. Uznano m.in., że zdjęcie nie zostało pozyskane z chronionego zbioru danych, a jego przerobienie nie stanowi przetwarzania danych osobowych. Prezes UODO interweniował w tej sprawie u Prokuratora Generalnego i ostatecznie w styczniu br. prokuratura poinformowała o ponownym podjęciu sprawy.

– To sprawa bardzo krzywdząca dla tej dziewczyny. Teoretyczne rozważania, że istnieją przepisy, które pozwalają na ściganie takich niegodnych zachowań, dowodzą tego, że potrzebne są tego typu rozwiązania. We Włoszech i Francji przyjęto rozwiązania, które mają na celu skuteczniejszą ochronę naszego wizerunku i walkę z technologiami, które wykorzystywane w niewłaściwy sposób mogą krzywdzić ludzi. Takie rozwiązania prawne potrzebne są także w Polsce – podkreśla Mirosław Wróblewski.

Włosi wprowadzili prawo, które definiuje przestępstwo polegające na nielegalnym rozpowszechnianiu sfałszowanych lub zmodyfikowanych treści cyfrowych wygenerowanych z wykorzystaniem sztucznej inteligencji. Określili także odpowiedzialność cywilną i karną za te nadużycia. Według UODO szansą na zmianę sytuacji w Polsce jest ponowne podjęcie prac nad przepisami mającymi wdrożyć unijny Akt o usługach cyfrowych (DSA), po niedawnym wecie prezydenta. Chodzi o wdrożenie rozwiązań, które systemowo uregulują kwestie związane z przeciwdziałaniem i ochroną obywateli przed negatywnymi skutkami tej technologii – zarówno na płaszczyźnie administracyjnej, karnej i skarbowej karnej, jak i sądowej.

Akt o sztucznej inteligencji w przepisie art. 50 nakazuje oznakowywanie wizerunków czy materiałów, treści syntetycznych, wytworzonych z użyciem algorytmów sztucznej inteligencji. Ale to za mało, ponieważ, po pierwsze, ten przepis nie ma pełnego zastosowania do każdej sytuacji, a po drugie, pomysły ludzi na wykorzystanie technologii wymykają się tym definicjom albo te rozwiązania są zbyt nieskuteczne – mówi prezesa UODO. – Na poziomie Unii Europejskiej rozpoczęła się dyskusja na temat potrzeby rozwiązań do zwalczania negatywnych zachowań związanych z wykorzystywaniem deepfake’ów czy zjawiska deep porn. Chociaż wiemy, że istnieją także inne przepisy, które mogą być do tego wykorzystywane: Komisja Europejska wszczęła postępowanie przeciwko Grokowi za stosowanie aplikacji tego typu. Zobaczymy, czy przyniosą one oczekiwany rezultat.

Komisja Europejska 26 stycznia br. wszczęła nowe postępowanie przeciwko platformie X na podstawie DSA, by zbadać, czy serwis społecznościowy prawidłowo ocenił i zminimalizował ryzyko związane z wdrożeniem Groka, czyli chatbota sztucznej inteligencji, na terenie Unii Europejskiej. Mowa między innymi o rozpowszechnianiu zmanipulowanych obrazów o charakterze seksualnym, w tym takich, które mogą przedstawiać wykorzystywanie dzieci.

Jak wynika z raportu WeProtect „Global Threat Assessment 2025” i danych CyberTipline, czyli scentralizowanego systemu zgłaszania przypadków wykorzystywania dzieci w internecie, to zjawisko niebezpiecznie nabiera na sile. Między 2023 a 2024 rokiem system odnotował wzrost o 1325 proc. liczby zgłoszeń związanych z generatywną sztuczną inteligencją. Zagrożeń jest jednak dużo więcej i są one wielowymiarowe.

Bardzo istotnym zagrożeniem ze strony sztucznej inteligencji jest to, że wiele z systemów zostało wytrenowanych na podstawie analizy danych, które wcześniej wprowadziliśmy do sieci internetowej. Nie spodziewaliśmy się tego, że będą one potem wykorzystane do innych celów niż te, dla których je zamieściliśmy. Dlatego trzeba się upewnić, że te systemy nie ujawniają naszych danych, że ryzyko ich udostępnienia jest znikome, a dostawcy systemów robią wszystko, aby zapewnić ochronę naszej prywatności. Temu służy chociażby opinia Europejskiej Rady Ochrony Danych Osobowych wypracowana z udziałem Urzędu Ochrony Danych Osobowych – mówi Mirosław Wróblewski.

Chodzi o opinię EROD w sprawie wykorzystywania danych osobowych do opracowywania i wdrażania modeli sztucznej inteligencji, która została przyjęta w grudniu 2024 roku. Zawiera ona zestaw kryteriów, które pomagają organom ochrony danych ocenić, czy osoby fizyczne mogą w sposób uzasadniony oczekiwać określonego wykorzystania ich danych osobowych. Mowa m.in. o tym, czy dane te były publicznie dostępne, jaka była relacja z administratorem, jaki był charakter usługi oraz kontekst, w którym dane osobowe zostały zebrane. Do kryteriów należy również to, z jakiego źródła dane zostały zebrane, a także kwestia tego, czy osoby fizyczne są świadome dostępności ich danych osobowych online.

– Są także inne zagrożenia, na które UODO będzie reagować. Na przykład te związane z dyskryminacją, a więc z przetwarzaniem danych osobowych w sposób naruszający prywatność. To są także zagrożenia związane z halucynacjami. Wiemy, że systemy sztucznej inteligencji często przetwarzają dane osobowe i podają wyniki w taki sposób, który wprowadza ludzi w błąd, manipuluje czy dezinformuje – tłumaczy prezes UODO.

Z badania opublikowanego przez UODO „Raport Strategiczny – Badanie potrzeb organizacji w zakresie wykorzystania sztucznej inteligencji i ochrony danych osobowych” wynika, że według 41 proc. spośród prawie 500 organizacji opracowywanie AI nie wiąże się u nich z przetwarzaniem danych osobowych lub nie potrafią one ocenić tej kwestii. Poziom świadomości na ten temat jest silnie zróżnicowany w zależności od wielkości i typu organizacji. Największe luki występują u podmiotów, które tradycyjnie przetwarzają dużą ilość danych osobowych: samorządy, uczelnie i ośrodki edukacyjne, zdrowie, kultura, a także u mniejszych przedsiębiorców. Wielu przedsiębiorców deklaruje znajomość obowiązków związanych z RODO, jednak rzeczywista zgodność z przepisami jest trudna do osiągnięcia, a obawy dotyczące bezpieczeństwa danych są jednym z głównych powodów niewdrażania AI.

Źródło: https://biznes.newseria.pl/news/uodo-skarg-na-nowe,p644416257

Strategiczna inwestycja energetyczna na Pomorzu wchodzi w decydującą fazę. Trwa układanie gazociągu metodą bezwykopową

0

Trwają prace nad rekordowo długim przewiertem pod Martwą Wisłą w Gdańsku. Bezwykopowe przekroczenie rzeki o długości ponad 1 km na trasie Kolnik–Gdańsk realizowane jest na terenie w gdańskiej dzielnicy Rudniki. Budowa gazociągu na tym odcinku jest realizowana w ramach części lądowej Programu FSRU. Ta strategiczna inwestycja dla bezpieczeństwa energetycznego kraju zakłada budowę w Zatoce Gdańskiej Terminala FSRU, który umożliwi odbiór dostarczanego drogą morską skroplonego gazu ziemnego LNG, jego regazyfikację i wprowadzenie do krajowego systemu przesyłowego. Spółka GAZ-SYSTEM, realizująca projekt, zapowiada, że budowa części lądowej zakończy się jeszcze w tym roku. Równolegle do prac na lądzie prowadzone są prace w części offshorowej w obszarze Zatoki Gdańskiej i terenach przyległych.

Program FSRU został stworzony z myślą o umieszczeniu w Zatoce Gdańskiej pływającej jednostki FSRU (ang. Floating Storage Regasification Unit). Chodzi o zacumowany na stałe statek, który umożliwi wyładunek gazu LNG, jego procesowe składowanie i regazyfikację, a także świadczenie usług dodatkowych. Zgodnie z zapowiedziami Terminal FSRU ma być przygotowany na odbiór minimum 6,1 mld Nm3 gazu rocznie.

Poprzez realizację Programu FSRU zapewniamy nowy dodatkowy punkt wejścia gazu do naszego systemu przesyłowego, a to się przekłada na możliwości operacyjne, jeśli chodzi o hydraulikę naszego systemu, poprawę elastyczności pracy sieci, jak również na całościowy wzrost bezpieczeństwa energetycznego kraju poprzez dywersyfikację dostaw gazu. Fazę rozruchową i przekazanie Terminala FSRU do eksploatacji planujemy na pierwszy kwartał 2028 roku – zapowiada w rozmowie z agencją Newseria Maciej Wawrzkowicz, kierownik projektu FSRU Offshore, GAZ-SYSTEM. – Gaz, który będziemy w tym miejscu otrzymywać, będzie przesyłany przez gazociąg podmorski i nowo wybudowaną infrastrukturę części lądowej Programu FSRU do centralnej Polski i stąd będzie dalej rozprowadzany po całym kraju.

W ramach części lądowej Programu FSRU powstanie gazociąg od Gdańska do Gustorzyna. Będzie miał długość około 250 km, a jego realizację podzielono na trzy odcinki: Kolnik–Gdańsk o długości ok. 34 km, Gardeja–Kolnik o długości ok. 88 km oraz Gustorzyn–Gardeja o długości ok. 128 km.

Obecnie na wszystkich trzech etapach części lądowej Programu FSRU toczą się zaawansowane prace. Jesteśmy za półmetkiem. Etap odbiorowy planowany jest na IV kwartał 2026 roku – zapowiada Konrad Fiedorowicz, kierownik projektu gazociągu Kolnik–Gdańsk w GAZ-SYSTEM. – Na ten rok planowane jest zakończenie spawania liniowego, montażowego i obiektowego oraz wykonanie wszystkich obiektów naziemnych realizowanych w ramach budowy gazociągu Kolnik–Gdańsk i na pozostałych dwóch odcinkach. Dodatkowo planujemy ukończenie układki, zasyp i rekultywację, czyszczenie i próby gazociągu, a także nagazowanie i rozruch.

W ramach budowy części lądowej zostanie wykonanych osiem przekroczeń bezwykopowych w technologii Direct Pipe o łącznej długości ponad 5,2 km. Jednym z najdłuższych przewiertów jest ten pod Martwą Wisłą na trasie Kolnik–Gdańsk, którego długość wynosi 1045 m. Kolejne przewierty zaplanowane zostały pod Wisłą, Wierzycą, Kanałem Młyńskim czy Drwęcą, większość z nich jest już wykonana. Projekt obejmuje też bezwykopowe przekroczenia autostrady A1, jak również użytków ekologicznych.

– Wykonywanie przekroczeń bezwykopowych pozwala z niezwykle wysoką precyzją na zabudowę rurociągów pod ziemią, pod przekroczeniami terenowymi, jak również zniwelowanie skutków budowy metodą wykopu otwartego – wyjaśnia Patryk Karolak, kierownik robót w firmie PORR, która jest wykonawcą budowy gazociągu Kolnik–Gdańsk.

Przewiert pod Martwą Wisłą zostanie wykonany w technologii Direct Steerable Pipe Thrusting. Gazociąg znajdzie się na głębokości około 22 m pod poziomem terenu. Na potrzeby instalacyjne został podzielony na cztery odcinki, czyli tzw. liry, które będą układane na specjalnych podporach.

– Direct Pipe to technologia bezwykopowa polegająca na drążeniu tunelu z jednoczesną instalacją rurociągu stalowego. Na przodzie znajduje się głowica przypominająca tarcze drążące tunele w Alpach – tłumaczy Maciej Rupikowski, project manager z firmy GGT Solutions, która odpowiada za prace wiertnicze. – Proces wiercenia odbywa się poprzez drążenie tarczą wiertniczą otworu. W tym czasie z komory nadawczej rurociąg jest wpychany pod powierzchnię ziemi. Urobek wydobywany w trakcie wiercenia jest transferowany instalowanym rurociągiem na powierzchnię terenu, gdzie jest odzyskiwany. Całość odbywa się w obiegu zamkniętym, zapewniając neutralność względem środowiska naturalnego. Przed wprowadzeniem tej technologii na rynek przekroczenie rzeki pokroju Wisły byłoby bardzo dużym wyzwaniem inżynierskim.

Równolegle do gazociągu ułożony zostanie również światłowód w technologii HDD. Jego długość to 1033 m. Zakończenie prac nad przewiertem zaplanowano na przełom lutego i marca 2026 roku.

Wyzwaniem na budowie jest skomplikowana geologia, z którą głowica sobie doskonale radzi – podkreśla Maciej Rupikowski.

Część lądowa Programu FSRU na odcinku Kolnik–Gdańsk, oprócz gazociągu, obejmuje również realizację stacji gazowej w Górkach Zachodnich w Gdańsku oraz Węzła Rozdzielczego Gazu Kolnik. Ten ostatni ma być największym obiektem kubaturowym w całym programie.

– W morskiej części programu mamy otwarte wszystkie fronty robót. Wydaliśmy wspólnie z wykonawcą główne dokumenty projektowe, rozpoczęliśmy proces zakupowy kluczowych urządzeń, najistotniejszych z perspektywy realizacji harmonogramu. Prace trwają zarówno w Zatoce Gdańskiej, jak i na lądzie, gdzie skupiamy się na realizacji robót mikrotunelowych – mówi Maciej Wawrzkowicz.

Przekroczenie brzegu morskiego odbędzie się z wykorzystaniem mikrotunelowania, czyli jednej z metod bezwykopowych. Rozpoczęły się prace przygotowawcze do budowy komory startowej mikrotunelu, w którym ułożony zostanie gazociąg podmorski łączący nabrzeże Terminala FSRU z lądem. Ukończenie ich zaplanowano na pierwszy kwartał 2026 roku. Następnie w mikrotunelu ma zostać zainstalowana maszyna drążąca tunel wraz z niezbędnym wyposażeniem.

Wśród naszych wszystkich inwestycji bezwykopowych będzie to największy mikrotunel o około 2,5 m średnicy zewnętrznej. Maszyna przewiertowa będzie dostarczona na przełomie marca i kwietnia, żeby uruchomić prace w kwietniu i zakończyć je w lipcu – podkreśla kierownik projektu FSRU Offshore w GAZ-SYSTEM. – Wybraliśmy metodę mikrotunelowania na 1,1 tys. m w osi gazociągu, ponieważ chcemy ominąć bardzo wartościowe środowiskowo oraz turystyczne tereny leżące w Gdańsku. Chodzi tutaj o plażę Krakowiec-Górki Zachodnie, która jest uwielbiana przez turystów i mieszkańców.

Żeby uniknąć ingerencji w ruch turystyczny, wykonawca wybudował drogę dojazdową, dzięki czemu komunikacyjnie budowa nie obejmuje głównego ciągu ulicy Stogi. Sam teren budowy jest zlokalizowany w odległości około 200 m od plaży.

– Budowany gazociąg podmorski będzie usytuowany pod dnem morskim. W najbliższych dniach planujemy kontynuację prac refulacyjnych [polegających na pompowaniu rurociągiem urobku z dna w inne miejsce – red.] związanych z poszerzeniem plaży. Te roboty realizujemy w pełnym uzgodnieniu z Urzędem Morskim w Gdyni, który zatwierdził wszystkie projekty technologiczne, dzięki czemu plaża w Górkach Zachodnich zyska nawet do 60 m dodatkowej linii brzegowej szerokości – mówi Maciej Wawrzkowicz.

Część offshore Programu FSRU obejmuje nie tylko gazociąg podmorski, ale również nabrzeże cumownicze wraz z infrastrukturą techniczną niezbędną do jego obsługi.

– Rok 2026 będzie pełen wyzwań, jeśli chodzi o roboty inżynieryjne, ponieważ będziemy się skupiać na jak największym zintensyfikowaniu robót na wszystkich frontach. Przede wszystkim zamierzamy zakończyć prace mikrotunelowe, rozpocząć mobilizację do układania i instalacji rurociągu podmorskiego. Jeśli chodzi o część morską, planujemy wykonać palowanie dla nabrzeża północnego i rozpocząć roboty żelbetowe, a następnie na tych platformach będziemy wznosić kolejne elementy projektu, takie jak budynek, konstrukcje stalowe, szachty kablowe i montaż urządzeń typu generatory, pompy przeciwpożarowe oraz cała reszta instalacji technologicznej, rurociągi, ramiona rozładunkowe i wszystkie inne niezbędne elementy – wymienia kierownik projektu FSRU Offshore, GAZ-SYSTEM

W czerwcu 2025 roku GAZ-SYSTEM podpisał umowę pożyczki z Bankiem Gospodarstwa Krajowego na budowę części lądowej Programu FSRU, tj. gazociągu Gdańsk–Gustorzyn. Pożyczka finansowana jest z Krajowego Planu Odbudowy i Zwiększania Odporności. Celem wsparcia jest rozbudowa infrastruktury przesyłowej, zwiększenie bezpieczeństwa energetycznego kraju, poprawa jakości życia społeczeństwa oraz zwiększenie odporności gospodarki po kryzysie wywołanym pandemią. Kwota udzielonej pożyczki wynosi 2,2 mld zł.

 


a

Źródło: https://biznes.newseria.pl/news/strategiczna-inwestycja,p530406821

Cyfrowe kanały zmieniają rynek ubezpieczeń. Co trzeci klient kupuje polisę online

0

31 proc. klientów w Polsce kupuje dziś ubezpieczenia w kanałach cyfrowych, a kolejne 20 proc. łączy zakup online z kontaktem offline – wynika z danych Polskiej Izby Ubezpieczeń. Wśród największych zalet tej formy kontaktu wymieniane są wygoda, łatwość zawarcia umowy oraz możliwość porównania cen i zakresu ofert. To pociąga za sobą wzrost popularności porównywarek ubezpieczeniowych. Z tego trendu chce skorzystać Orange Polska, który we współpracy z bolttech uruchomił swoją platformę do porównywania i zakupu polis.

– Zakup ubezpieczeń w kanale online staje się coraz popularniejszy. Widzimy wyraźne trendy, potwierdzone też badaniami, że klient nauczył się kupować w kanale online ubezpieczenia, chce mieć dostęp do oferty w dowolnym momencie, wtedy, kiedy ma na to czas i jest mu wygodnie to załatwić. Chce również zaplanować ten zakup w budżecie domowym, wcześniej porównać ceny i przygotować się do tego zakupu zarówno pod kątem finansowym, jak i produktowym – podkreśla w rozmowie z agencją Newseria Aleksandra Lech, senior commercial product manager w bolttech, firmie działającej w branży insurtech.

Z raportu PIU i Accenture „Cyfryzacja sektora ubezpieczeń w Polsce” z 2024 roku wynika, że 40 proc. klientów wskazało wizytę w punkcie obsługi jako najchętniej wybieraną formę kontaktu z ubezpieczycielem. Jednak już jedna trzecia konsumentów szuka ofert ubezpieczeniowych w porównywarkach internetowych. Podobny odsetek wskazał na wyszukiwarki oraz strony internetowe ubezpieczycieli. Najszybciej na internet przechodzą młodsi konsumenci: w grupie wiekowej 18–35 lat zakup polisy online deklaruje 41 proc. badanych.

 Klienci chcą mieć swobodę wyboru produktu ubezpieczeniowego, móc porównać warianty i ceny towarzystw ubezpieczeniowych, a przy okazji dowiedzieć się, które towarzystwa mają najlepsze opinie na rynku – wymienia Aleksandra Lech.

63 proc. badanych wskazuje możliwość porównania cen jako kluczową dla nich funkcję kanałów cyfrowych, a ponad połowa zwraca uwagę na zestawienie zakresu ochrony i wariantów polisy. Za największą korzyść zakupów online blisko połowa respondentów uważa łatwość zawarcia umowy ubezpieczenia i możliwość szybkiego porównania cen ofert.

– Ceny ubezpieczeń są uzależnione od zakresów produktowych, towarzystw ubezpieczeniowych, taryf, które aktualnie funkcjonują, więc porównywarka jest bardzo wygodnym miejscem, aby klient mógł je porównać w dowolnym czasie – mówi ekspertka bolttech.

To przyczynia się do rosnącej popularności porównywarek ubezpieczeń. Umożliwiają one porównanie ofert różnych towarzystw pod względem ceny, zakresu ochrony, limitów odpowiedzialności i opcji dodatkowych, co ma ułatwić konsumentowi podjęcie decyzji o wyborze polisy. Tym bardziej że różnice cenowe pomiędzy ofertami poszczególnych ubezpieczycieli mogą sięgać kilkunastu, a nawet kilkudziesięciu procent, zwłaszcza przy bardziej rozbudowanych wariantach ochrony.

Swoją porównywarkę uruchomił właśnie Orange Polska we współpracy z bolttech. „Ubezpiecz z Orange” to pierwsza w Polsce porównywarka ubezpieczeń w ofercie operatora telekomunikacyjnego, skierowana zarówno do jego klientów, jak i osób spoza jego bazy.

 To nowa i unikalna usługa na rynku telco, w pełni cyfrowa, dostępna pod adresem ubezpieczenia.orange.pl, za pomocą której możemy w sposób prosty, wygodny, szybki, w zaledwie kilka minut porównać oferty różnych ubezpieczycieli z wiodących firm ubezpieczeniowych w Polsce oraz zakupić polisę – mówi Żaneta Łucka-Tomczyk, dyrektor zarządzania wartością dosprzedaży w Orange Polska.

Klienci mogą zestawić oferty polis z dwóch kategorii – ubezpieczeń komunikacyjnych oraz nieruchomości, ale w dalszych etapach platforma ma być rozwijana o nowe kategorie i partnerstwa z zakładami ubezpieczeń.

– Wkrótce będzie można ubezpieczyć swoją podróż, docelowo chcemy mieć pełną gamę ubezpieczeń, też ubezpieczenia na życie, ubezpieczenia zwierząt – mówi Żaneta Łucka-Tomczyk.

Proces zakupu odbywa się w całości online.

– Klient po wyborze produktu ubezpieczeniowego, którego ofertę chce uzyskać, zostanie przeniesiony do formularza, na którym zostawia informacje o przedmiocie ubezpieczenia, na przykład o pojeździe lub nieruchomości, a także swoje dane osobowe, informacje o osobach, które będą ubezpieczone. W kolejnym kroku otrzymuje listę ofert i ubezpieczycieli, wybiera produkt, który mu najbardziej pasuje, i potem już tylko pozostaje zapłacić – mówi Aleksandra Lech.

Platforma zapewnia jednocześnie dostęp do konsultanta na każdym etapie procesu. Jak podkreślają eksperci, dane PIU pokazują, że mimo rosnącej popularności sprzedaży online klienci nadal potrzebują kontaktu z doradcą. Brak możliwości rozmowy z człowiekiem jako barierę przy zakupie ubezpieczenia przez internet wskazuje ok. 45 proc. badanych. Obawy dotyczą także niedopasowania zakresu ochrony do realnych potrzeb, skomplikowanych zapisów OWU oraz bezpieczeństwa danych.

Orange podkreśla, że rozwój usługi wpisuje się w rosnące oczekiwania klientów wobec prostych, cyfrowych narzędzi finansowych, które pozwalają samodzielnie porównać oferty i podjąć decyzję zakupową w dogodnym momencie.

 Klienci naszej porównywarki mogą liczyć na specjalne promocyjne warunki. Teraz mogą uzyskać nawet 150 zł zwrotu na konto przy zakupie ubezpieczenia na mieszkanie i samochód. Zamierzamy wdrażać kolejne promocje – zapowiada przedstawicielka Orange. – Mocno stawiamy na innowacje. To jest wpisane w DNA naszej strategii, w której mamy także bezpieczeństwo, technologię i wygodę dla naszych klientów, ale też nowe źródła przychodów. W to doskonale wpisuje się koncept „Ubezpiecz z Orange”. Po drugie, mamy też solidne doświadczenie we współpracy z rynkiem ubezpieczeniowym. Z powodzeniem od kilkunastu lat sprzedajemy ubezpieczenia na sprzęt.

Z raportu PIU wynika, że sektor ubezpieczeń intensywnie inwestuje w cyfryzację – 80 proc. ubezpieczycieli zwiększyło nakłady na technologie, a 60 proc. rozwinęło współpracę z partnerami technologicznymi, aby poprawić doświadczenie klienta, skrócić procesy i lepiej dopasować ofertę do potrzeb rynku. Coraz większą rolę odgrywają rozwiązania oparte na automatyzacji i analizie danych, które pozwalają łączyć wygodę kanałów online z bezpieczeństwem.

Źródło: https://biznes.newseria.pl/news/cyfrowe-kanaly-zmieniaja,p253953432

Zarządca odcinka autostrady A4 wchodzi na rynek nieruchomości. Zaczyna od budowy w centrum Katowic [DEPESZA]

0

Nawet 700 mieszkań znajdzie się w budynku, który zamierza zrealizować spółka Stalexport Autostrady w centrum Katowic. Firma w przyszłym roku przestaje zarządzać trasą A4 Katowice–Kraków. W projekcie nowej strategii na lata 2026–2030 deklaruje, że w dalszym ciągu będzie działać w obszarze infrastruktury transportowej, ale chce mocniej postawić na inwestycje w nieruchomości mieszkaniowe lub wielofunkcyjne.

Nowoczesny budynek, który ma powstać w centrum Katowic, ma mieć powierzchnię netto inwestycji około 50–55 tys. mkw. W ramach koncepcji, którą przygotował architekt Tomasz Konior, znajdą się także tereny zielone i plac miejski. Pracownia Konior Studio odpowiadała w przeszłości m.in. za realizację siedziby Narodowej Orkiestry Symfonicznej Polskiego Radia (NOSPR) w Katowicach.

– Mamy jasną wizję – chcemy być inwestorem z długoterminową perspektywą. Chcemy zarządzać zdywersyfikowanym portfelem inwestycji w szeroko rozumianą infrastrukturę transportową i budownictwo – mówi Andrzej Kaczmarek, prezes spółki Stalexport Autostrady SA. – W pierwszym kwartale 2026 roku planowane jest utworzenie specjalnej spółki celowej zajmującej się projektami deweloperskimi w zakresie nieruchomości mieszkalnych i komercyjnych.

Obecnie Grupa Kapitałowa Stalexport Autostrady koncentruje się na eksploatacji płatnego odcinka autostrady A4 Katowice–Kraków. Koncesja na ten projekt wygasa 15 marca 2027 roku. Po niemal trzech dekadach funkcjonowania w modelu partnerstwa publiczno-prywatnego spółka przygotowuje się do nowego etapu działalności.

– W ostatnich miesiącach poświęciliśmy dużo czasu na analizę i ocenę tego, gdzie jako organizacja możemy tworzyć największą wartość. Wnioski były jednoznaczne: żeby skutecznie konkurować i rozwijać się w długim terminie, musimy zaproponować rynkowi nowy, bardziej zdywersyfikowany model działania. Przygotowaliśmy propozycję strategii na lata 2026–2030 z perspektywą do roku 2035. To nie jest lista przypadkowych projektów ani zmiana narracji. To zestaw konkretnych i realnych propozycji, które porządkują nasze priorytety i wyznaczają jasny kierunek na najbliższe lata – zapowiada Andrzej Kaczmarek.

Projekt nowej strategii pod hasłem „Droga do nowych inwestycji!” zakłada rozwój w trzech kluczowych kierunkach. Oprócz mocniejszego akcentu stawianego na inwestycje w nieruchomości mieszkaniowe lub wielofunkcyjne spółka chce nadal zarządzać infrastrukturą transportową, nieograniczającą się tylko do projektów autostradowych. Zapowiada wykorzystanie posiadanych kompetencji związanych z budową, utrzymaniem i modernizacją w przypadku takich projektów jak nowe drogi, parkingi czy lotniska.

Sprzyja temu szereg czynników rynkowych, w tym w szczególności sytuacja geopolityczna i budżetowa państwa, która otwiera możliwości dla nowych projektów infrastrukturalnych w Polsce. Perspektywiczne są m.in. plany rozbudowy infrastruktury podwójnego zastosowania, tj. dla celów cywilnych i wojskowych (dual-use), i jej dostosowanie do standardów NATO. W ramach tych działań planowane jest m.in. zapewnienie przepustowości korytarzy wojskowych wzdłuż osi zachód–wschód w europejskiej sieci TEN-T. Unijny program Military Mobility zakłada uruchomienie programu infrastrukturalnych inwestycji prywatnych, które zwiększą możliwości transportowe na potrzeby wojsk.

– Nasz docelowy profil działalności w roku 2030 składa się z portfela projektów w infrastrukturę publiczną i nieruchomości. STX posiada doświadczenie i kompetencje umożliwiające mu udział w rozwoju infrastruktury w ramach potrzeb strony publicznej – wspierając realizację projektów dual-use czy wpisujących się w zapotrzebowanie Military Mobility. Dodatkowo rozpoczynamy nasze działania w obszarze technologicznym, ponieważ to bezpośrednio wzmacnia jakość naszych rozwiązań i długoterminową stabilność firmy – zapowiada Andrzej Kaczmarek.

Źródło: https://biznes.newseria.pl/news/zarzadca-odcinka,p1648981828

Europosłowie chcą regulacji zarządzania algorytmicznego w miejscu pracy. Ważne decyzje mają być podejmowane przez człowieka

0

Europosłowie zaapelowali do Komisji Europejskiej o przygotowanie przepisów, które uregulują sposób wykorzystania zarządzania algorytmicznego w przedsiębiorstwach. Podkreślają, że decydujący głos w ważnych sprawach dotyczących pracowników powinni mieć ludzie. Chodzi m.in. o decyzje w sprawie przedłużenia lub nieprzedłużenia umowy o pracę czy zmiany wynagrodzenia.

Parlament Europejski w grudniu 2025 roku przyjął raport polskiego europosła Andrzeja Buły na temat cyfryzacji, sztucznej inteligencji oraz zarządzania algorytmicznego (algorithmic management, AM) w miejscu pracy. Posłowie domagają się w nim przyjęcia nowych środków ochrony przed zarządzaniem algorytmicznym w miejscu pracy. Raport to odpowiedź na zmiany dotykające europejski rynek pracy. Jak wynika z grudniowego badania OECD dotyczącego wdrażania przez firmy narzędzi zarządzania algorytmicznego, średni wskaźnik adaptacji dla europejskich badanych krajów, tj. Francji, Niemiec, Włoch i Hiszpanii, wyniósł 79 proc.

Zarządzanie algorytmiczne to mechanizmy, które pojawiają się w miejscu pracy w kontekście nadzoru, kontroli, kreowania pewnych sytuacji, do których pracownicy nie są przygotowani. Chcieliśmy w tym raporcie złapać balans pomiędzy bardzo ważną rolą pracodawcy w prowadzeniu firmy, w walce o konkurencyjny rynek czy efektywność swojej produkcji, a z drugiej strony pokazać stronę społeczną, czyli pracowników jako partnerów do tego, aby korzystać z nowoczesnych technologii – mówi agencji Newseria Andrzej Buła, poseł do Parlamentu Europejskiego z Koalicji Obywatelskiej. – Bardzo zależało mi na tym, żeby w tym raporcie i jedenastu rekomendacjach pokazać relacje pomiędzy pracodawcą a pracownikiem, że pojawia się tam algorytm, który powinien być pod nadzorem człowieka. Jednocześnie chcemy też pokazać, żeby przedsiębiorcy nie byli narażeni na żadne sankcje, nie było dodatkowej sprawozdawczości, żeby po prostu przedsiębiorca miał cały czas wolność prowadzenia działalności gospodarczej.

Najważniejsza rekomendacja, która znalazła się w przyjętym raporcie, dotyczy ludzkiego nadzoru. Zgodnie z nią żadne istotne decyzje dotyczące pracowników nie powinny być podejmowane przez algorytmy bez nadzoru człowieka. Europosłowie zaznaczają, że pracownik powinien mieć prawo do żądania wyjaśnień odnośnie do decyzji podejmowanych lub wspieranych przez zarządzanie algorytmiczne. W przypadku gdy stwierdzi, że jego prawa zostały naruszone, dany system AM może zostać zmodyfikowany lub nawet wycofany.

– Chcielibyśmy, aby każdy pracownik w miejscu pracy, gdzie pracodawca zdecyduje się wprowadzić nowoczesne narzędzia technologiczne, był niezwłocznie przeszkolony, poinformowany, aby na to znalazły się pieniądze, szczególnie dla małych i średnich przedsiębiorstw – mówi europoseł KO.

Europosłowie rekomendują, aby pracownicy otrzymywali jasne informacje o tym, w jaki sposób systemy AM wpływają na warunki pracy, zwłaszcza gdy są one wykorzystywane do podejmowania zautomatyzowanych decyzji. Informacje powinny obejmować zakres gromadzonych i przetwarzanych danych, a także sposób sprawowania nadzoru przez człowieka. Ponadto podkreślają, że pracownicy powinni mieć możliwość udziału w konsultacjach w sytuacji, gdy systemy AM służą do podejmowania decyzji dotyczących wynagrodzeń, ocen, przydziału zadań czy czasu pracy. Stosowanie systemów musi uwzględniać dobrostan pracowników i nie może zagrażać ich bezpieczeństwu ani zdrowiu fizycznemu czy psychicznemu.

– Przeznaczyliśmy ten raport i rekomendacje dla 32 mln firm w Europie i 200 mln obywateli Unii Europejskiej pracujących na wspólnym rynku pracy – tłumaczy Andrzej Buła. – Tworzymy pewne ramy organizacyjne, w przyszłości może prawne, dla konkretnych grup ludzi. Po to jesteśmy w Parlamencie Europejskim. Chodzi o to, żebyśmy potrafili dostrzec, że coś jest wyzwaniem, dla niektórych pewnym problemem, ale żeby cały czas nowe technologie były dla nas wielką szansą. Absolutnie nie jestem ich przeciwnikiem, wręcz przeciwnie, ale chodzi o wymiar społeczny, żebyśmy wszyscy byli zaproszeni do uczestnictwa.

W dokumencie zaznaczono, że zarządzanie algorytmiczne może pozytywnie wpływać na zwiększenie efektywności, redukcję kosztów, służyć lepszej organizacji pracy czy też wspierać innowacyjne modele biznesowe.

– Udało mi się doprowadzić do tego, że przedsiębiorca nie jest szykanowany, zmuszany do dodatkowej sprawozdawczości, że to on bierze pełną odpowiedzialność za funkcjonowanie firmy i wyniki finansowe. Często ze strony Lewicy pojawia się postulat, aby to związki zawodowe decydowały o wielu aspektach w firmie. To przedsiębiorca płaci podatki, utrzymuje rodziny, przygotowuje wynagrodzenia, więc dla mnie na pierwszym miejscu jest przedsiębiorca – wyjaśnia Andrzej Buła. – Jednak przedsiębiorca nie zafunkcjonuje, nie będzie się rozwijał, jeżeli nie będzie miał dobrze przygotowanej kadry. Jeżeli więc po drugiej stronie pojawiają się fundusze i prawo do szkoleń, informacji, przejrzystości, do tego, że to człowiek nadzoruje drugiego człowieka, oczywiście poprzez różne mechanizmy, to jest to dla mnie najważniejsze.

Jak dodaje, Europa może łączyć konkurencyjność z odpowiedzialnością społeczną i tym samym wspierać innowacyjne przedsiębiorstwa bez rezygnowania z wysokich standardów i ochrony pracowników, o ile zostaną przyjęte odpowiednie rozwiązania.

Na poziomie Unii Europejskiej istnieją już przepisy dotyczące sztucznej inteligencji i ochrony danych, w tym AI Act i GDPR. Z kolei kwestie dotyczące wykorzystania sztucznej inteligencji w miejscu pracy zostały zawarte w dyrektywie w sprawie pracy za pośrednictwem platform internetowych.

Jesteśmy w trakcie wdrażania tych przepisów i AI Act, ale tam wszędzie mówi się o bezpiecznej i godnej zaufania technologii. Tutaj jest pracodawca, pracownik i jest najważniejsza umowa społeczna. Chodzi o to, żeby ta umowa też podlegała pewnym zmianom, bo otoczenie wokół nas się zmienia. Dlatego uważam, i pracodawcy, i pracownicy mogą się czuć wygrani. Jedni mają prawo do nowoczesnych technologii, żeby była lepsza efektywność funkcjonowania firm, drudzy mają prawo do tego, żeby wiedzieć, jakie są te technologie – podkreśla poseł sprawozdawca.

Po przyjęciu sprawozdania Komisja Europejska ma trzy miesiące na odpowiedź na wniosek PE.

Źródło: https://biznes.newseria.pl/news/europoslowie-chca,p372778569

Największa od 20 lat reforma unijnego prawa farmaceutycznego na ostatniej prostej. Ma zwiększyć innowacyjność i dostępność leków

0

W grudniu 2025 roku Parlament Europejski wraz z Radą UE i Komisją Europejską doszły do porozumienia w sprawie rewizji pakietu farmaceutycznego. To oznacza, że największa od dwóch dekad reforma tego obszaru jest coraz bliżej wdrożenia. Nowe przepisy mają działać na rzecz innowacji i konkurencyjności rynku, jak również na korzyść pacjentów, którzy mają mieć większy dostęp do terapii.

Pakiet farmaceutyczny to pierwsza duża nowelizacja unijnych przepisów farmaceutycznych od 2004 roku, której projekt Komisja Europejska po raz pierwszy opublikowała w kwietniu 2023 roku. W okresie polskiej prezydencji 4 czerwca 2025 roku Rada UE uzgodniła swoje stanowisko negocjacyjne, a 11 grudnia wspólnie z Parlamentem instytucje te osiągnęły porozumienie co do tego, jak mają ostatecznie wyglądać nowe przepisy.

Mamy już zakończony trilog, czyli czekamy tylko na potwierdzenie formalne największej od 20 lat reformy rynku leków. Jedno określenie, które spaja te przepisy, to: większa dostępność. Z jednej strony chcemy dawać impulsy dla leków innowacyjnych, branży badawczej i firm, które wynajdują nowe leki, bo żeby leki były dostępne, muszą zostać najpierw wynalezione, a z tym się często wiąże olbrzymi koszt liczony w miliardach euro. Z drugiej strony, żeby lek był dostępny, to musi być nas na niego stać – nas jako pacjentów czy nas jako państwa członkowskie, które refundują część tych leków przez budżet – podkreśla w rozmowie z agencją Newseria dr Adam Jarubas, poseł do Parlamentu Europejskiego z PSL, przewodniczący Komisji Zdrowia Publicznego w PE (SANT).

Jednym z najważniejszych elementów osiągniętego porozumienia jest uzgodnienie ośmioletniego okresu wyłączności danych pochodzących z badań przedklinicznych i klinicznych dla firm wprowadzających lek na rynek. Po upływie tego okresu inne firmy mogą je wykorzystywać do produkcji leków generycznych. W określonych warunkach będzie możliwe wydłużenie tego okresu, a maksymalny łączny czas ochrony wynosi 11 lat.

– Największy spór dotyczył okresu wyłączności ochrony danych i ochrony rynkowej. Z jednej strony to jest to, na czym bardzo zależało branży innowacyjnej, czyli Big Pharmie. Z drugiej strony mamy perspektywę pacjentów i producentów leków generycznych, bo pamiętajmy, że w okresie, kiedy kończy się ta ochrona, leki tanieją od 30 do nawet 90 proc. – tłumaczy dr Adam Jarubas. – Udało się przyjąć zbalansowane rozwiązanie. Podstawowy okres ochrony danych to jest osiem lat. Może on być wydłużony dla producentów leków pod warunkiem spełnienia określonych dodatkowych wymagań. To jest chociażby kwestia odpowiedzi na tak zwane niezaspokojone potrzeby medyczne, czyli nowe wskazania terapeutyczne, podjęcie dodatkowych badań czy procedury oceny technologii medycznych HTA. To są bardzo szczegółowe rozwiązania.

Wśród wyjątków znalazła się m.in. sytuacja, w której spółka uzyska autoryzację na jedno lub więcej nowych wskazań terapeutycznych przynoszących istotne korzyści kliniczne w porównaniu z istniejącymi terapiami.

Bardzo ważny jest tzw. wyjątek Bolara. Chodzi o to, żeby w momencie, kiedy ustaje ochrona danych czy ochrona rynkowa, lek był od razu dostępny w sprzedaży czy produkcji generycznej. Zapisaliśmy więc, że zanim ten czas ochrony upłynie, przyszli producenci będą mogli już prowadzić badania i wstępne procedury rejestracyjne dla tego leku. To się sprowadza do tego, że tańszy lek będzie mógł być wcześniej dostępny dla pacjentów – wyjaśnia przewodniczący komisji SANT w PE.

Jak podkreśla, regulacja ma też wyrównać dostępność leków na różnych rynkach.

– Obecnie jest taka sytuacja, że niektóre leki są w Europie Zachodniej, na większych, bogatszych rynkach dostępne dwa–trzy lata wcześniej. Producenci leków nie byli zobowiązani do tego, żeby zaoferować swoje produkty na mniejszych rynkach. Teraz będzie to wymuszone przez regulację. W momencie kiedy preparat będzie zarejestrowany, to pod sankcją nawet utraty wyłączności rynkowej w niektórych państwach producenci będą zachęcani do tego, żeby zaoferować te leki również w takich krajach jak Polska, Rumunia czy Bułgaria – wyjaśnia dr Adam Jarubas.

Reforma zapowiada również uproszczenie wewnętrznych procedur w Europejskiej Agencji Leków (EMA). Dzięki niemu wnioski o pozwolenie na dopuszczenie leków do obrotu mają być szybciej rozpatrywane. Ponadto mają być składane w formie elektronicznej, a pozwolenie domyślnie wydawane na czas nieograniczony. Wszystko po to, aby uniknąć niepotrzebnych obciążeń administracyjnych. 

Dodatkowym elementem, który też uchwaliliśmy w Parlamencie Europejskim na komisji SANT, jest Akt o lekach krytycznych. Te dwa dokumenty będą nową konstytucją lekową. Te przepisy się uzupełniają i doprowadzą do tego, że te leki będą wcześniej dostępne dla naszych pacjentów – podkreśla europoseł z PSL.

15 grudnia 2025 roku komisja SANT przyjęła stanowisko w sprawie Aktu o lekach krytycznych (Critical medicines act), który ma się przyczynić do zmniejszenia zależności Unii Europejskiej od państw trzecich w zakresie dostępu do leków. Europosłowie chcą zmiany procedur zamówień publicznych, by były możliwe m.in. wspólne zamówienia ze strony co najmniej trzech państw członkowskich UE lub takie, w których uczestniczy Komisja i co najmniej pięć państw członkowskich Unii. Dzięki temu ma się zwiększyć podaż leków, zwłaszcza tych na rzadkie choroby, ale też środków przeciwdrobnoustrojowych oraz innych innowacyjnych, kosztownych lub specjalistycznych metod leczenia.

W dokumencie mowa również o utworzeniu unijnego mechanizmu koordynacji krajowych zapasów i zapasów awaryjnych leków krytycznych. Europosłowie domagają się, aby Komisja Europejska w przypadku niedoboru lub zakłócenia dostaw kluczowego produktu leczniczego miała prawo decydować o jego redystrybucji z jednego krajowego zapasu do drugiego lub kilku innych krajów.

Polski sektor biotechnologiczny i farmaceutyczny może bardzo skorzystać na obu regulacjach, stąd blisko konsultowaliśmy się w czasie prac nad pakietem i aktem o lekach krytycznych z branżą innowacyjną oraz generyczną. Zwłaszcza branża generyczna jest bardzo zadowolona z tych przepisów, bo to może być mocny impuls dla odtwarzania produkcji, która wyprowadziła się z Europy, przyciągania jej w niektórych kategoriach. Polska ma bardzo silny potencjał w niektórych rodzajach insuliny, więc firmy u nas mogą na tym skorzystać – ocenia europoseł.

Źródło: https://biznes.newseria.pl/news/najwieksza-od-20-lat,p1684199854