Strona główna Blog Strona 18

Rosnące koszty życia powodują coraz większą presję na wzrost wynagrodzeń. Inflacja i spowolnienie gospodarcze wśród największych globalnych wyzwań na najbliższe dwa lata

0

W zestawieniu globalnych ryzyk na najbliższe dwa lata znalazły się dwa czynniki ekonomiczne – inflacja i spodziewane spowolnienie gospodarcze – wynika z „Global Risks Report 2024”. Z tymi wyzwaniami wiąże się szereg problemów gospodarczo-społecznych, m.in. rosnące koszty życia, presja na podwyżki czy walka o talenty na rynku pracy. Obawy z tym związane to codzienność również polskich firm. Eksperci podkreślają, że na to wszystko nakłada się poważne długoterminowe wyzwanie, czyli niekorzystne zmiany demograficzne.

– W tegorocznym raporcie „Global Risk Report 2024” wskazano 10 głównych globalnych ryzyk. Pojawiły się wśród nich zjawiska i wyzwania, które są nam świetnie znane. Po pierwsze, inflacja – myślę, że w polskiej skali ona jest nawet bardziej dotkliwa niż w wielu innych krajach. Po drugie, przepowiadany kryzys ekonomiczny i trzecia rzecz, czyli polaryzacja społeczna – wymienia w rozmowie z agencją Newseria Biznes Krzysztof Nowak z zespołu Mercer Marsh Benefits.

Wśród największych ryzyk na kolejne dwa lata inflacja znalazła się na siódmym, a spowolnienie ekonomiczne na dziewiątym miejscu. Jednak to polaryzacja społeczna budzi większe obawy – została sklasyfikowana przez globalnych ekspertów ds. ryzyka, decydentów i liderów biznesu na trzeciej pozycji. Z kolei wśród wyzwań na następną dekadę zajmuje dziewiąte miejsce. Nieco wyżej – na siódmej pozycji – znalazła się niekontrolowana imigracja.

– Z lokalnej perspektywy te wszystkie polskie, unikalne ryzyka znajdują swój wyraz w tych globalnych – mówi ekspert Mercer Marsh Benefits. – Pomijając Węgry, Polska jest państwem UE, które ciągle ma bardzo wysoką inflację – przez długi czas byliśmy w pierwszej trójce, teraz ta sytuacja nieco się polepszyła. Trzeba jednak pamiętać, że w 2024 roku inflacja na poziomie 6-proc. czy niższa wcale nie musi być nam dana, ponieważ nadal mamy strefę, w której to rząd administruje cenami i wpływa na ich wysokość. Mam tu na myśli przede wszystkim VAT na żywność i ceny energii. Dlatego tutaj cały czas możemy mówić o dużym zagrożeniu – mówi Krzysztof Nowak.

W Polsce szczyt inflacji przypadł na luty 2023 roku, kiedy przyspieszyła do 18,4 proc. (najwyższy odczyt od grudnia 1996 roku). Według prognoz banku centralnego w tym roku ma ona wynieść 4,6 proc. (NBP, „Raport o inflacji – listopad 2023”), jednak wielu ekonomistów sceptycznie podchodzi do tego scenariusza, prognozując na ten rok inflację zbliżoną do 6 proc.

Ryzykiem ściśle powiązanym z inflacją jest sytuacja na rynku pracy, wzrost kosztów życia i presja na wzrost wynagrodzeń. Według prognozy opublikowanej pod koniec grudnia przez Polski Instytut Ekonomiczny w 2024 roku tempo wzrostu wynagrodzeń utrzyma się na dwucyfrowym poziomie i wyniesie średnio 10,3 proc.

– Ostatnie dwa lata to była ogromna presja na poziom zarobków – oczywista ze względu na inflację, czyli rosnące koszty życia. Dzisiaj ta inflacja jest relatywnie niska, ale to nie znaczy, że presja wynagrodzeniowa maleje. W tym kontekście pojawia się element konkurencyjności gospodarki, ponieważ nasi sąsiedzi – przede wszystkim Niemcy, gdzie głównie eksportujemy – też przeżywają trudności. W związku z tym być może ich skłonność do importowania coraz droższych produktów z Polski będzie mniejsza, bo spowolnienie gospodarcze, które będzie dotykać naszych sąsiadów, przełoży się na mniejszy popyt – mówi ekspert Mercer Marsh Benefits.

W kontekście biznesu jednym z większych wyzwań w 2024 roku będzie też wdrażanie przyjętej niedawno, unijnej dyrektywy (UE) 2023/970 dotyczącej transparentności wynagrodzeń. Zakłada ona, że firmy będą zobowiązane do ujawniania pracownikom informacji, które ułatwią im porównywanie obowiązujących zarobków i identyfikację ewentualnych różnic.

 O ile oswoiliśmy się już z zamiarem ujawniania wysokości wynagrodzeń w ogłoszeniach o pracę, o tyle wciąż niewiele mówi się o tym, jakie obowiązki dla pracodawców wprowadzi ta dyrektywa. Najbardziej istotny to właśnie zapewnienie pracownikom dostępu do informacji o wynagrodzeniach osób zatrudnionych, wykonujących podobną lub taką samą pracę – mówi Krzysztof Nowak. – Wyzwaniem dla polskich firm będzie też zmierzenie się z problemem różnic w wynagrodzeniach kobiet i mężczyzn. Trzeba pamiętać, że ta dyrektywa wymaga, aby te różnice były nie wyższe niż 5 proc. Wszyscy pracodawcy będą musieli się do tego dostosować, wdrożyć procedury zarządzania tym zjawiskiem, przygotować sposoby liczenia i negocjacji ze związkami, informowania pracowników o poziomie tej luki płacowej. To z pewnością będzie istotne i duże zjawisko.

Ekspert wskazuje, że wśród głównych ryzyk dla rynku pracy i gospodarki w ogóle – szczególnie w perspektywie długoterminowej – jest demografia, czyli starzejące się społeczeństwo i związane z tym zagrożenia dla systemu emerytalnego. Według danych GUS w Polsce udział seniorów w wieku 60+ w ogóle ludności na koniec 2020 roku wynosił 25,6 proc. (o 10 pkt proc. więcej niż w 1989 roku). W liczbach bezwzględnych to 9,8 mln osób. Zgodnie z prognozą na koniec tej dekady ta liczba ma wzrosnąć do 10,8 mln, a w 2050 roku – do 13,7 mln. Oznacza to, że w połowie obecnej dekady osoby w wieku 60+ będą stanowić już 40 proc. polskiego społeczeństwa (GUS, „Sytuacja osób starszych w Polsce w 2020 roku”).

– Demografia jest dziś tłem właściwie każdego zagrożenia, o którym się na świecie rozmawia. W Polsce też społeczeństwo się starzeje, zresztą najszybciej w Europie. Tymczasem system emerytalny już dziś walczy z wyzwaniami demograficznymi, bo na rynku pracy wcale nie pojawia się więcej pracowników, za to z każdym rokiem przybywa osób pobierających świadczenia – wskazuje ekspert Mercer Marsh Benefits.

Te niekorzystne trendy demograficzne będą mieć wpływ na wysokość przyszłych emerytur i stopniowe zubożenie polskiego społeczeństwa, które w dodatku w większym stopniu będzie dotyczyć kobiet.

Mamy sytuację, która jest wyjątkowa – jako jeden z nielicznych krajów w Europie utrzymujemy różny wiek emerytalny dla kobiet i mężczyzn. Różny wiek emerytalny najczęściej oznacza, że kobiety otrzymują niższe emerytury, bo pracują odpowiednio krócej. W Polsce dochodzi do tego jeszcze drugi element – kobiety nie tylko pracują krócej, ale i żyją dłużej. A jak na to nałożymy niższe zarobki kobiet, to mamy pełnię zjawisk negatywnych społecznie, bo jest to, po pierwsze, kwestia biedy, która w dużo większym stopniu dotyka kobiet, i to biedy zarówno w momencie, kiedy pracują, bo zarabiają mniej, jak i na emeryturze. Jest też zjawisko różnic społecznych, które nigdy albo rzadko jest zjawiskiem pozytywnym – mówi Krzysztof Nowak.

Szacuje się, że do 2060 roku na każdą setkę pracujących Polaków będzie przypadać już średnio 68 seniorów. W efekcie tzw. stopa zastąpienia – czyli procent przeciętnego wynagrodzenia, jakie otrzymuje świeżo upieczony emeryt – spadnie do 24 proc. Dla porównania jeszcze w 2016 roku wynosiła ona ok. 60 proc. (dane za Instytutem Badań Strukturalnych).

– Polskie społeczeństwo starzeje się, jego struktura się zmienia. Na szczęście rynek pracy do tej pory sobie z tym radził, angażując osoby bezrobotne. Ale przy bezrobociu, które wynosi około 2 proc., w zależności od metodologii, za chwilę to źródło pokrywania niedoboru na rynku pracy będzie niewielkie – ostrzega ekspert.

Według Ministerstwa Rodziny i Polityki Społecznej na koniec grudnia 2023 roku stopa bezrobocia rejestrowanego w Polsce wyniosła 5,1 proc. i rok do roku obniżyła się o 0,1 pkt proc. Wciąż utrzymuje się na jednym z najniższych poziomów w całej UE, zajmując drugie miejsce za Maltą. Liczona metodologią Eurostatu stopa bezrobocia w październiku br. wyniosła w Polsce 2,8 proc. wobec 6 proc. w całej Unii Europejskiej i 6,5 proc. w strefie euro.

 Niskie bezrobocie jest fajną daną statystyczną, ale najczęściej oznacza, że rynek pracy przeżywa swoje problemy – mówi Krzysztof Nowak. – W Polsce bezpośrednio przekłada się to na fakt, że w wielu sektorach mamy niedobór pracowników. W branży IT czy sektorze usług wspólnych jest ciągły popyt, a trzeba też pamiętać, że to są sektory, które ciągną gospodarkę i są ważne w skali makro.

Tegoroczny „Global Risks Report”, opracowany przez Światowe Forum Ekonomiczne we współpracy z Zurich Insurance Group i Marsh McLennan, opiera się na opiniach ponad 1,4 tys. globalnych ekspertów ds. ryzyka, decydentów i kilku tysięcy liderów biznesu. Jest przeglądem krótko- i długoterminowych globalnych zagrożeń i przeszkód na drodze postępu w rozwoju ludzkości, który ma umożliwić ich lepsze zrozumienie i budowanie odporności na te ryzyka.

Z publikacji wynika, że prognozy na najbliższą przyszłość się pogarszają, a obawy na 2024 rok zostały zdominowane przez zagrożenia związane z dezinformacją, ekstremalnymi zjawiskami pogodowymi i polaryzacją społeczną. Eksperci zwrócili uwagę, że bieżący rok będzie rokiem wyborów, które mogą zachwiać sytuacją polityczną w wielu krajach na świecie. Dostrzegają także rosnące zagrożenie wynikające z konfliktów zbrojnych – w ich ocenie będzie to jeden z pięciu największych problemów dla świata w perspektywie kolejnych dwóch lat. Przewidują też, że będą się one charakteryzować utrzymującą się niepewnością gospodarczą i rosnącymi podziałami. W kontekście gospodarki i biznesu za najważniejsze zostały uznane zagrożenia związane z cyberbezpieczeństwem, w tym z rozwojem AI, w połączeniu z inflacją, wymuszoną migracją i perturbacjami w łańcuchach dostaw. Długoterminowe prognozy dla świata po raz kolejny zostały zaś zdominowane przez klimat i środowisko. Z tegorocznego „Global Risks Report” wynika, że ekstremalne zjawiska pogodowe, utrata różnorodności biologicznej i załamanie ekosystemów, niedobory zasobów naturalnych i zanieczyszczenie środowiska stanowią 5 z 10 najpoważniejszych zagrożeń dla ludzkości w ciągu następnej dekady.

Źródło: https://biznes.newseria.pl/news/rosnace-koszty-zycia,p845382949

Global Risks Report: Dezinformacja największym zagrożeniem w 2024 roku. Długoterminowym wyzwaniem wciąż pozostają zmiany klimatu

0

Inflacja, pogorszenie koniunktury gospodarczej, konflikt zbrojny, przypadkowe lub zamierzone użycie broni biologicznej, chemicznej lub nuklearnej oraz dług publiczny – to pięć głównych ryzyk dla Polski wymienionych w tegorocznym „Global Risks Report” Światowego Forum Ekonomicznego. W globalnej skali obawy na 2024 rok zdominowały z kolei zagrożenia związane z dezinformacją opartą na sztucznej inteligencji i polaryzacją społeczeństwa. Natomiast w długoterminowej perspektywie największym wyzwaniem dla świata wciąż pozostają zmiany klimatyczne i środowiskowe.

„Global Risks Report” – opracowywany przez Światowe Forum Ekonomiczne we współpracy z Marsh McLennan i Zurich Insurance Group – jest przeglądem krótko- i długoterminowych globalnych zagrożeń, który ma umożliwić ich zrozumienie i budowanie odporności na te ryzyka. Analizuje najpoważniejsze wyzwania, jakie mogą się pojawić w ciągu następnej dekady w kontekście szybkich zmian technologicznych, niepewności gospodarczej, demografii, konfliktów i zmian klimatycznych. Tegoroczna edycja raportu powstała na podstawie opinii ponad 1,4 tys. światowych ekspertów ds. ryzyka, decydentów i liderów z wielu różnych branż. Wynika z niej, że na czele globalnych zagrożeń w 2024 roku będzie dezinformacja i nasilanie się problemów środowiskowych.

– Ryzyka związane ze zmianami klimatycznymi towarzyszą nam niezmiennie od ponad dekady. Zjawiska takie jak nagłe zmiany klimatu, zagrożenia bioróżnorodności czy zagrożenia dla ekosystemów to są ryzyka, które w ujęciu długoterminowym na pewno będą zajmowały czołowe pozycje i zdominują globalny krajobraz zagrożeń – mówi agencji Newseria Biznes Artur Grześkowiak, prezes zarządu McLennan w Polsce i w Regionie CEE (Europy Środkowo-Wschodniej).

O ile dezinformacja została uznana za największe globalne zagrożenie w krótkim terminie, o tyle ekstremalne zjawiska pogodowe i krytyczne zmiany w ekosystemach są kluczowym wyzwaniem długoterminowym. Równocześnie aż 2/3 światowych ekspertów spodziewa się nasilenia ekstremalnych zjawisk pogodowych w 2024 roku (drugie miejsce wśród krótkoterminowych zagrożeń dla świata).

Analizując najnowszy raport, mogłoby się wydawać, że ryzyka związane ze środowiskiem naturalnym zostały niejako przykryte przez niebezpieczeństwa wynikające z rozwoju nowoczesnych technologii, takich jak chociażby AI, czy sytuacji geopolitycznej i ekonomicznej na świecie. Teza o tym, że ryzyka środowiskowe straciły na znaczeniu, wydaje się postawiona nieco na wyrost – mówi Marcin Zimowski, dyrektor w Pionie Klienta Strategicznego Marsh.

Według ankietowanych ekspertów ekstremalne zjawiska pogodowe, krytyczne zmiany w systemach ziemskich, utrata różnorodności biologicznej i załamanie ekosystemów, niedobory zasobów naturalnych i zanieczyszczenie środowiska stanowią aż 5 z 10 najpoważniejszych zagrożeń, z którymi świat będzie musiał się zmierzyć w ciągu nadchodzącej dekady.

 Eksperci w coraz większym stopniu dostrzegają problem w ograniczeniu dostępu do zasobów naturalnych, który może powodować wykluczenie niektórych krajów czy słabszych części społeczeństw – wskazuje Marcin Zimowski. – Raport pokazuje też, że większe środki powinny być przeznaczone na badania i rozwój w dziedzinie modelowania zmian klimatycznych i zielonej transformacji. Jednak nie uda nam się zrealizować celów w tym obszarze, jeśli sektor prywatny i publiczny nie będą ze sobą współpracować. Na tym tle dość ciekawie jawi się niejako pewien konflikt między ekspertami z obu tych sektorów. 

Jak podkreśla, przedstawiciele sektora prywatnego uważają, że mamy jeszcze trochę czasu na reakcję na zmiany klimatyczne, a na agendzie są ważniejsze problemy do załatwienia w pierwszej kolejności. Z kolei sektor rządowy i organizacje non-profit wskazują, że prawdopodobnie przekroczyliśmy już punkt krytyczny, co oznacza, że szkody wyrządzone środowisku naturalnemu są raczej nieodwracalne.

Ekspert dodaje, że ryzyka związane ze środowiskiem i klimatem już w tej chwili mają coraz większe przełożenie na rynek ubezpieczeniowy.

– Rynek ubezpieczeniowy to system naczyń połączonych: problem i straty w jednym regionie świata prędzej czy później przełożą się na problemy w innych regionach, chociażby poprzez wzrost stawek na rynku reasekuracyjnym, co pociąga za sobą wzrost kosztów działalności ubezpieczycieli – mówi dyrektor w Pionie Klienta Strategicznego Marsh.

Nie ma jeszcze dokładnych danych na temat wartości globalnych szkód spowodowanych przez siły przyrody w ubiegłym roku. Chociaż prawdopodobnie nie był to rekordowy pod tym względem rok, i tak liczby mogą się okazać zatrważające.

– Osiągnęliśmy wartość szkód zbliżoną do średniej wieloletniej, co przełożyło się na wypłaty odszkodowań na poziomie ok. 95 mld dol. w skali świata. Patrząc na rynek niemiecki, wypłaty z tytułu szkód spowodowanych przez siły przyrody były wyższe o 20 proc. w porównaniu z 2022 rokiem i wyniosły ok. 5 mld euro. Lwią część spowodowały burze i gradobicia, które na całym świecie wywołały szkody rzędu 60 mld dol. – wymienia Marcin Zimowski. – Z kolei Polska – na tle globalnych doniesień o powodziach, pożarach czy trzęsieniach ziemi – jawi się jako kraj bezpieczny i stabilny, ale i u nas coraz częściej pojawiają się zjawiska o charakterze ekstremalnym. Najczęściej mają formę zdarzeń hydrologicznych,  takich jak susze, błyskawiczne powodzie po ulewnych deszczach i coraz częściej notowane silne wiatry.

W czołówce „Global Risks Report” niezmiennie utrzymują się wyzwania związane z cyberbezpieczeństwem, które nasilił szybki rozwój systemów sztucznej inteligencji (AI).

W ostatnich latach obserwujemy nieprawdopodobny rozwój technologiczny, związany głównie ze sztuczną inteligencją, która pomaga rozwijać się wielu dziedzinom naszego życia i wielu branżom, takim jak choćby medycyna i farmacja. Ale ten rozwój niesie ze sobą też określone ryzyka, które dotyczą m.in. cyberzagrożeń. Ponadto w ostatnim czasie obserwujemy – i to wynika też z „Global Risks Report” – że rozwój technologii i sztucznej inteligencji może wpływać również na większą skalę dezinformacji i zakłóceń w dostępie do informacji – mówi Artur Grześkowiak.

Obawy na 2024 rok zdominowały zagrożenia związane z dezinformacją opartą na sztucznej inteligencji i polaryzacją społeczeństwa. Według ekspertów fałszywe informacje, w połączeniu z niepokojami społecznymi, będą w centrum uwagi w związku ze zbliżającymi się wyborami w kilku głównych gospodarkach świata.

– Coraz bardziej powszechne staje się wykorzystanie sztucznej inteligencji w życiu codziennym i biznesie. Podążają za tym również zmiany w prawie lokalnym i europejskim. Patrząc na rynek ubezpieczeniowy, wielu ubezpieczycieli już od lat wykorzystuje systemy sztucznej inteligencji w swojej działalności, na przykład prognozując sprzedaż, analizując szkodowość czy wykorzystując chatboty do rozmów z klientem masowym – mówi Małgorzata Splett, FINPRO & Cyber Leader w Regionie Europy Środkowo-Wschodniej. – Wiadomo jednak, że wykorzystanie sztucznej inteligencji rodzi zarówno szanse, jak i zagrożenia. Może wspierać cyberbezpieczeństwo, ale z drugiej strony, w przypadku dostania się w ręce hakerów, może też stanowić istotne zagrożenie.

Jak wskazuje, rosnąca popularność AI i związane z tym cyberzagrożenia mają jednak pozytywne przełożenie na rynek ubezpieczeń cybernetycznych, których rozwój już teraz jest bardzo dynamiczny.

–  Powszechne wykorzystanie AI w biznesie spowoduje jedynie rosnący popyt na tego typu ubezpieczenia. Tym, co dodatkowo wesprze ich popularność, będą bardziej konkurencyjne ceny i częściej oferowane przez ubezpieczycieli rozszerzenia ochrony – przewiduje Małgorzata Splett.

Tegoroczny „Global Risks Report” wskazuje również na rosnące zagrożenie wynikające z konfliktów zbrojnych – w ocenie ekspertów to jeden z pięciu największych problemów w perspektywie kolejnych dwóch lat, a obecne napięcia geopolityczne będą powodować dalsze rozprzestrzenianie się konfliktów. Około 2/3 światowych ekspertów przewiduje, że w ciągu następnej dekady ukształtuje się wielobiegunowy, rozdrobniony porządek świata, w którym średnie i wielkie mocarstwa będą rywalizować i ustalać, a także egzekwować nowe zasady i normy.

Nadchodzące lata będą też naznaczone utrzymującą się niepewnością gospodarczą i ograniczonymi możliwościami ekonomicznymi, które zajęły szóste miejsce w rankingu zagrożeń w perspektywie dwuletniej. Raport zwraca uwagę, że globalna współpraca w celu rozwiązania tych pilnych wyzwań może się okazać niewystarczająca, dlatego potrzebna jest zmiana podejścia do kwestii zagrożeń i wypracowanie nowych rozwiązań.

Źródło: https://biznes.newseria.pl/news/global-risks-report,p809866058

W ofertach na rynku wtórnym coraz więcej „młodszych” aut. Przez to wzrosły także średnie ceny

0

Przebieg 188 tys. km, wiek 12,7 lat i cena blisko 30 tys. zł – to uśredniona charakterystyka samochodów, które w 2023 roku były najczęściej oferowane w sprzedaży na polskim rynku wtórnym. Statystyki pokazują jednak, że mediana wieku aut z drugiej ręki sukcesywnie spada, a w ofercie rośnie udział nowszych pojazdów – o ile w 2022 roku sprzedający oferowali nieco ponad 79 tys. aut czteroletnich, o tyle w ubiegłym roku było ich już ponad 104 tys. Rosną więc ceny używanych samochodów, które w ubiegłym roku okazały się średnio o 6,7 tys. zł wyższe niż w poprzednim.

– Rynek samochodów używanych w Polsce na tę chwilę się ustabilizował. Z końcem roku liczba ofert sprzedaży samochodów używanych wynosiła około 200 tys., co jest średnią końcówką roku. Widzimy duże zainteresowanie zakupem samochodów używanych, a z drugiej strony podaż też nie maleje – mówi agencji Newseria Biznes Paweł Molasy, business country manager w AAA Auto Polska.

Według raportu „Barometr AAA Auto”, opartego na analizie danych dotyczących sprzedaży aut używanych w komisach, na stronach internetowych oraz u dealerów samochodów używanych, w grudniu 2023 roku w Polsce oferowano 198,74 tys. aut z drugiej ręki (wzrost o blisko 2 tys. aut w stosunku do listopada). Natomiast w całym 2023 roku na wtórnym rynku oferowano na sprzedaż łącznie 2 mln 36 tys. samochodów, co oznacza wzrost o 297,3 tys. ofert w stosunku do poprzedniego roku.

Statystyki pokazują, że najpopularniejszym modelem oferowanym na sprzedaż na rynku wtórnym był w ubiegłym roku Opel Astra (55,5 tys. ofert), na drugim miejscu znalazło się Audi A4 (44,9 tys.), a na trzecim Volkswagen Golf (43,6 tys.). Największa liczba ofert prezentowała samochody z silnikami Diesla (969,2 tys. aut), a na drugim miejscu – z silnikami benzynowymi (885,1 tys.). Dalej uplasowały się auta napędzane LPG (117,4 tys. ofert), hybrydowe (54,3 tys.) i elektryczne (9,7 tys.). Co ciekawe, w ubiegłym roku na rynku wtórnym znalazło się też dziewięć ofert sprzedaży samochodów napędzanych ogniwami wodorowymi. Statystyki pokazują, że – biorąc pod uwagę typ nadwozia – w ostatnich kilku latach skokowy wzrost popularności zanotowały SUV-y. O ile jeszcze w 2015 roku odpowiadały za 6,2 proc. sprzedaży na rynku wtórnym, o tyle w ubiegłym roku ten odsetek wzrósł już do 20,2 proc.

– Patrząc przez pryzmat 2023 roku, widzimy też większą podaż samochodów w rocznikach do czterech lat. Ten polski stock nam się odmładza, co jest bardzo pozytywne, bo stan tych samochodów też jest zdecydowanie lepszy – ocenia Paweł Molasy.

Z danych opublikowanych niedawno przez Eurostat wynika, że Polacy jeżdżą najstarszymi samochodami w Europie – aż 41,3 proc. z nich ma ponad 20 lat. Ponad 37 proc. stanowią pojazdy w wieku 10–20 lat i tylko niecałe 5 proc. to auta mające maksymalnie dwa lata.

Na rynku używanych samochodów średnia mediana wieku wynosiła w ubiegłym roku 12,7 lat i spadła z 13,5 lat w 2022 roku. Większy niż w poprzednich latach był napływ aut młodych, w wieku czterech–sześciu lat. O ile w 2022 roku sprzedający oferowali nieco ponad 79 tys. pojazdów czteroletnich, o tyle w ubiegłym roku było ich już ponad 104 tys. Eksperci wskazują, że zmiana struktury wiekowej zarejestrowanych samochodów osobowych w Polsce jest faktem, co z czasem korzystnie wpłynie na bezpieczeństwo na polskich drogach.

– Mediana ceny samochodu używanego wyniosła prawie 30 tys. zł, co oznacza wzrost o 6,7 tys. zł w stosunku do roku poprzedniego. Tak więc ceny samochodów używanych w 2023 roku wzrosły, ale nie dlatego że samochody same w sobie zdrożały, tylko z uwagi na to, że samochody są młodsze, a młodsze samochody są, jak wiadomo, trochę droższe – wyjaśnia business country manager w AAA Auto Polska.

Statystyki AAA Auto pokazują, że w grudniu mediana cen samochodów z rynku wtórnego wyniosła 32,9 tys. I choć była o 1 tys. zł (2,9 proc.) niższa niż miesiąc wcześniej, to względem grudnia 2022 roku wzrosła o 2 tys. zł (6,5 proc.). Natomiast biorąc pod uwagę cały 2023 rok, mediana ceny wyniosła 29,7 tys. zł, co oznacza wzrost o 6,7 tys. zł rok do roku. Dla porównania jeszcze w 2015 roku mediana ceny używanego samochodu w Polsce wynosiła ok. 12,7 tys. zł.

– Ceny samochodów używanych rosną właśnie z uwagi na wzrost udziału nowych aut w ofercie oraz wysoką inflację. Dziś średnia cena nowego samochodu to ok. 175 tys. zł i wiemy, że nie każdego stać na nowe auto, dlatego klienci poszukują samochodów używanych, trochę świeższych, właśnie do czterech lat. Z drugiej strony podaż na tym rynku nie jest aż tak duża, a kiedy mamy mniejszą podaż, to rosną ceny – tłumaczy Paweł Molasy.

Mimo stopniowej stabilizacji rynku ubiegły rok okazał się kiepski dla importerów samochodów używanych. Do Polski trafiło 805,77 tys. aut z zagranicy – o 4,3 proc. więcej niż rok wcześniej, ale aż o 14,3 proc. mniej względem 2021 roku. Natomiast w relacji do rekordowego 2019 roku, gdy import przekroczył 1 mln pojazdów, spadek sięgnął aż 20 proc.

– Import w 2023 roku odnotował spadek z uwagi na to, że, po pierwsze, kurs euro był bardzo niekorzystny do importu, a po drugie, samochody kupowane u naszych zachodnich sąsiadów niekoniecznie są tańsze. Te dobre egzemplarze bardzo często są droższe, one mają lepsze silniki, lepsze wyposażenie, ale z reguły mają też większe przebiegi – mówi ekspert.

Źródło: https://biznes.newseria.pl/news/w-ofertach-na-rynku,p1957446136

Transport szuka alternatywy dla paliw kopalnych. Najbardziej perspektywiczny jest wodór, a rozwój biopaliw przebiega wolniej od oczekiwań

0

– Rozwój paliw alternatywnych to wyzwania dla całego sektora paliwowego – mówi Halina Pupacz, prezeska Polskiej Izby Paliw Płynnych. Jak wskazuje, najbliższe lata przyniosą m.in. intensywny rozwój sektora biopaliw. Jak pokazało grudniowe sprawozdanie Europejskiego Trybunału Obrachunkowego, na razie, mimo ogromnych dotychczasowych inwestycji w ten segment w UE, rozwija się wolniej, niż oczekiwano, m.in. ze względu na brak długoterminowej strategii i wysokie koszty. Nośnikiem energii, który ma przed sobą najbardziej perspektywiczną przyszłość, jest za to wodór, na który unijna polityka stawia mocny akcent.

– Cała globalna gospodarka szuka w tej chwili paliw alternatywnych, zastanawia się, w którym kierunku ma pójść rozwój transportu i z jakich paliw ekologicznych powinien on korzystać – mówi agencji Newseria Biznes Halina Pupacz. – UE uznała, że głównym paliwem, które może zastępować te tradycyjne, będzie wodór, więc teraz promocja strategii wodorowych jest na bardzo wysokim poziomie i te strategie są w Unii mocno rozwijane. Na ten moment wydaje się – choć niektórzy eksperci się z tym nie zgadzają – że to właśnie wodór będzie najbardziej rozwijany jako paliwo pochodzenia niebiologicznego.

Komisja Europejska opublikowała w połowie 2020 roku unijną Strategię Wodorową, określając ten nośnik energii jako priorytet dla Europejskiego Zielonego Ładu i transformacji energetycznej UE. Dokument przewiduje stworzenie bodźców zarówno dla zwiększenia produkcji, jak i zapotrzebowania na wodór w warunkach unijnej gospodarki. Zakłada też, że skumulowane inwestycje w zielony wodór w Europie mogą wynieść od 180 do 470 mld euro do 2050 roku, a wsparciem dla wdrażania strategii i zaplanowanych w niej inwestycji ma być dedykowany wodorowi sojusz na rzecz czystego wodoru – European Clean Hydrogen Alliance.

Transport ma być jednym z pierwszych obszarów gospodarki, który ma przejść wodorową rewolucję. Po ulicach polskich miast jeżdżą już pierwsze autobusy wodorowe, z których część została dofinansowana w naborach NFOŚiGW. Fundusz wsparł też budowę fabryki autobusów zasilanych wodorowymi ogniwami paliwowymi PAK-PCE w Świdniku, która ma być w stanie wytwarzać około setki takich pojazdów rocznie. Z kolei Grupa Orlen inwestuje w budowę stacji do tankowania wodoru – strategia spółki zakłada, że do 2030 roku w Polsce ma być ich 57. To nawet więcej niż cel określony w polskiej „Strategii Wodorowej do 2030 roku z perspektywą do 2040 roku” (PSW), której cel 2. zakłada właśnie szersze wykorzystanie wodoru jako paliwa alternatywnego w transporcie. Dokument przewiduje m.in., że liczba autobusów wodorowych na polskich drogach ma sięgać 100–250 do 2025 roku i 800–1000 do końca obecnej dekady.

Mamy też oczywiście elektromobilność i tutaj też wyznaczono konieczność dostosowania sieci do ładowarek, żeby móc korzystać z pojazdów elektrycznych. Globalnie produkuje się już ok. 15 proc. samochodów z silnikami elektrycznymi, więc ta sieć jest też przygotowywana. Polska też się do tego przygotowuje – mówi prezeska Polskiej Izby Paliw Płynnych. – Wiele kierunków i technologii zostanie zapewne w niedługim czasie przyjętych za te główne i będzie wdrażanych do napędów.

W Polsce i pozostałych krajach członkowskich UE już w tym roku zacznie obowiązywać unijne rozporządzenie AFIR dotyczące infrastruktury ładowania pojazdów elektrycznych i tankowania wodorem. Wprowadzi ono ambitne, szczegółowe wytyczne dotyczące mocy i rozmieszczenia ładowarek, w tym m.in. obowiązek rozbudowy infrastruktury ładowania wzdłuż sieci dróg TEN-T. Do 2025 roku wzdłuż głównych korytarzy transportowych UE co 60 km w każdym kierunku mają być rozmieszczone ogólnodostępne strefy ładowania o mocy co najmniej 400 kW, przeznaczone dla samochodów osobowych i dostawczych. Do 2027 roku moc takich stref będzie musiała wzrosnąć do co najmniej 600 kW. Podobne wymogi dotyczą sieci kompleksowej TEN-T (z terminami granicznymi ustalonymi na lata 2027, 2030 oraz 2035).

Drugi kluczowy obowiązek przewidziany w rozporządzeniu AFIR dotyczy wzrostu łącznej mocy ogólnodostępnych stacji ładowania na każdy zarejestrowany samochód całkowicie elektryczny (do co najmniej 1,3 kW) oraz każdą zarejestrowaną hybrydę typu plug-in (do co najmniej 0,8 kW). W Polsce – biorąc pod uwagę prognozowany, szybki rozwój rynku elektromobilności – oznacza to, że już za niecałe trzy lata moc infrastruktury ładowania będzie musiała wzrosnąć niemal pięciokrotnie względem 2022 roku.

Podstawowy cel rozporządzenia AFIR to wprowadzenie takich przepisów, które zagwarantują szybki rozwój infrastruktury ładowania pojazdów elektrycznych i wodorowych na terenie UE. Chodzi o to, aby stan tej infrastruktury nie był przeszkodą hamującą dekarbonizację sektora transportu.

Z ubiegłorocznego raportu „Zielony transport. Stan obecny i perspektywy”, opracowanego z inicjatywy Polskiej Organizacji Przemysłu i Handlu Naftowego, wynika jednak, że ograniczenie emisji CO2 osiągnięte dzięki wprowadzeniu pojazdów elektrycznych i napędzanych wodorowymi ogniwami paliwowymi nie wystarczy do osiągnięcia celów klimatycznych UE. Rozwiązaniem mają być biopaliwa, które w 2050 roku mogą całkowicie zaspokajać pozostałą część popytu na paliwa w transporcie.

 Biopaliwa z pewnością będą funkcjonowały w sektorze transportowym i przewiduje się, że ich rozwój będzie dosyć intensywny w najbliższych latach – ocenia ekspertka.

Biopaliwa – jako alternatywa dla paliw kopalnych, która może się przyczynić do obniżenia emisyjności sektora transportu w UE – budzą duże zainteresowanie. Zwłaszcza od momentu wybuchu wojny w Ukrainie, która pokazała, jak ważna jest niezależność energetyczna oraz powiązane ze sobą kwestie produkcji żywności i paliw w UE.

W ostatnich latach w przemysł produkcji biopaliw został zaangażowany ogromny kapitał. Z grudniowego sprawozdania Europejskiego Trybunału Obrachunkowego wynika, że w latach 2014–2020 w UE przeznaczono na projekty badawcze i promocję biopaliw w sumie ok. 430 mln euro. Mimo to rozwój zaawansowanych biopaliw w UE przebiega wolniej, niż oczekiwano, m.in. ze względu na brak długoterminowej strategii (w ostatnich latach unijna polityka dotycząca biopaliw, przepisy i priorytety w tym zakresie często się zmieniały, co wpływało na decyzje inwestorów, a sektor w efekcie tracił na atrakcyjności), wysokie koszty i problemy z dostępnością biomasy. Komisja Europejska spodziewała się, że wykorzystanie biopaliw wzmocni niezależność energetyczną UE, jednak w rzeczywistości jej zależność od państw trzecich wzrosła, ponieważ z roku na rok zwiększa się zapotrzebowanie na biomasę (np. na zużyty olej kuchenny importowany z Chin, Zjednoczonego Królestwa, Malezji i Indonezji). Branża biopaliw konkuruje o dostępne surowce z innymi gałęziami przemysłu, przede wszystkim z branżą spożywczą, ale także kosmetyczną i farmaceutyczną.

Problemem, na który zwrócił uwagę Europejski Trybunał Obrachunkowy, jest też m.in. brak jasnego planu w segmencie lotnictwa, które trudno zelektryfikować, więc zastosowanie biopaliw mogłoby być dobrym sposobem na obniżenie pochodzących z niego emisji. W przyjętych w 2023 roku przepisach dotyczących inicjatywy ReFuelEU Aviation wskazano, że w 2030 roku poziom stosowanego zrównoważonego paliwa lotniczego (SAF) – w tym biopaliw – ma wynieść 6 proc., czyli około 2,76 mln t oleju ekwiwalentnego. Jednak na razie zdolność produkcyjna UE sięga zaledwie 1/10 tej wartości. Ponadto na poziomie europejskim – inaczej niż w Stanach Zjednoczonych – wciąż nie ma planu co do tego, jak przyspieszyć produkcję SAF, a według ETO przyszłość biopaliw jest równie niepewna także w transporcie drogowym. 

– Paliwa syntetyczne również mogą mieć przyszłość, ponieważ prowadzonych jest wiele prac badawczych i wydaje się, że one też będą zastępować paliwa tradycyjne. To jest pewnie kwestia jeszcze kilku najbliższych lat, żeby one się pojawiły w dostępności dla konsumenta – mówi Halina Pupacz. – Rozwój paliw alternatywnych to wyzwania dla całego sektora paliwowego, one są traktowane przez wielu przedsiębiorców rynku paliwowego jako nisza. To są wyzwania, przed którymi wszyscy stoimy i do których wszyscy musimy się przygotowywać. One są związane m.in. z nakładami finansowymi, dostosowaniem infrastruktury, dostosowaniem obiektów stacyjnych. Uważam, że w dalszym ciągu będą to stacje paliw. Choć w przyszłości mogą się inaczej nazywać, ale w dalszym ciągu będą to punkty, gdzie będziemy mogli zasilać swoje pojazdy transportowe.

Transport jest sektorem, w którym emisje gazów cieplarnianych w ciągu ostatnich kilku dekad znacząco wzrosły. W 2021 roku 93 proc. energii wykorzystanej w transporcie drogowym i kolejowym w UE pochodziło z paliw kopalnych. Według Komisji Europejskiej osiągnięcie neutralności klimatycznej wymaga, aby do 2050 roku emisje z transportu zostały obniżone o 90 proc. (w stosunku do poziomu z 1990 roku).

Źródło: https://biznes.newseria.pl/news/transport-szuka,p149566357

Polski system ochrony zdrowia w ogonie innowacyjności. Głównym hamulcem są brak finansowania i obawy przed ewentualnymi błędami

0

W polskim systemie ochrony zdrowia nie brakuje innowatorów, którzy wprowadzają rozwiązania czy procedury wybijające ich na arenie międzynarodowej i którzy mogą stanowić przykład do naśladowania. Cały system trudno jednak określić jako innowacyjny, co potwierdzają światowe rankingi. I mowa nie tylko o zaawansowanych technologiach, ale również o lekach i metodach leczenia, badaniach naukowych czy innowacjach organizacyjnych. W wielu przypadkach wdrażanie nowoczesnych rozwiązań hamuje brak finansowania. Przyczyniają się do tego również obawy przed konsekwencjami ewentualnych błędów. 

 W szpitalnictwie możliwości finansowania nowoczesnych procedur są bardzo ograniczone przez koszyk świadczeń gwarantowanych. Ciężko jest osiągnąć w szpitalach powszechną nowoczesność, ponieważ nie dostosowaliśmy koszyka świadczeń. Innymi słowy: nie możemy płacić specjalnie za te nowoczesne techniki, nie możemy ich wyodrębnić. Natomiast punktowo, z punktu widzenia pojedynczego szpitala jako innowatora rozwiązań technologicznych i organizacyjnych, można powiedzieć, że naprawdę mamy liderów na skalę światową. Przykładem jest chociażby Centrum Słuchu w Kajetanach, które wybiło polski system poza teren naszego kraju – mówi agencji Newseria Biznes dr hab. Barbara Więckowska, profesor SGH i kierowniczka Zakładu Innowacji w Ochronie Zdrowia na tej uczelni.

Innowacyjność i wdrażanie nowych technologii nadal stanowi wyzwanie w polskim systemie zdrowotnym. W ostatnim raporcie „World Index of Healthcare Innovation 2023”, opracowanym przez działającą na rzecz równości szans organizację Foundation for Research on Equal Opportunity, Polska znalazła się na ostatnim, 32. miejscu (spadając z 31. w 2021 roku i 30. w 2020 roku) m.in. ze względu na brak opieki skupionej na pacjencie, słabą infrastrukturę i niewielki wpływ naukowy. Autorzy rankingu zauważyli m.in., że nasz kraj ma jeden z najniższych wskaźników przeżywalności chorych na nowotwory spośród wszystkich analizowanych państw, a także jedną z najniższych liczby lekarzy i pielęgniarek podstawowej opieki zdrowotnej. Poza tym zajmuje ostatnie miejsce pod względem cyfryzacji zdrowia oraz rozwoju innowacji medycznych i naukowych w obszarze medycyny. Natomiast nieco lepiej plasuje się w postępie medycyny (24. miejsce w rankingu) dzięki przyzwoitej liczbie zatwierdzeń leków innowacyjnych, na co wpływa m.in. przynależność do Europejskiej Agencji Leków.

– Innowacyjność to nie tylko nowe technologie, innowacyjność to też nowa organizacja udzielania świadczeń, a to z kolei jest już w zasięgu naszych szpitali, w których można dostosować procesy tak, żeby pacjent był zaopatrzony sprawnie, bezpiecznie i w jak najkrótszym terminie – mówi prof. Barbara Więckowska.

W ostatnich trzech latach katalizatorem zmian w zakresie cyfryzacji okazała się pandemia COVID-19. Jak wynika z ostatniej edycji raportu „Future Health Index”, publikowanego przez firmę Philips, liderzy ochrony zdrowia i personel medyczny są zgodni, że innowacje i nowoczesne technologie pomogą sprostać rosnącym potrzebom pacjentów, podnieść jakość systemu ochrony zdrowia i zwiększyć jego efektywność kosztową. Obecnie na rynku dominują inwestycje m.in. w cyfrową dokumentację medyczną i telemedycynę, co wynika z bieżącego zapotrzebowania sektora zdrowia, ale z drugiej strony ma też na celu przygotowanie go na przyszłe wprowadzanie jeszcze bardziej zaawansowanych technologii, jak np. automatyzacja czy sztuczna inteligencja.

– Szpitale często pozyskują finansowanie i środki na inwestycje z różnych konkursów europejskich, dzięki czemu mogą testować rozwiązania, które są już też stosowane za granicą. I punktowo mamy w systemie liderów, od których inne podmioty mogłyby się uczyć. Jednak bez pełnego finansowania tych świadczeń ciężko jest myśleć o innowacyjności w sektorze ochrony zdrowia, ponieważ kończy się projekt, kończy się konkurs i pozostaje pytanie, jak dalej finansować to świadczenie, które często jest droższe niż świadczenie klasyczne  mówi ekspertka SGH.

Jak wskazuje, punktem wyjścia do tego, aby polskie szpitale były bardziej nowoczesne, powinna być edukacja i pokazywanie korzyści – uświadamianie placówkom i ich pacjentom, że korzystanie z nowych technologii i innowacyjnych rozwiązań czy terapii jest dla nich zwyczajnie opłacalne.

– Dużym bodźcem ograniczającym rozwój innowacyjności jest myślenie o tym, że nowe procedury, nowe techniki niekoniecznie są dobrze zbadane, że nasi pacjenci nie zrozumieją tego, co otrzymują, i w razie popełnienia błędów to szpital będzie obarczony ich kosztami – tłumaczy prof. Barbara Więckowska. – W sektorze ochrony zdrowia nie można robić rewolucji, zmiany muszą następować stopniowo, spokojnie. W pierwszej kolejności nowym procedurom czy formom udzielania świadczeń powinni być poddawani ci najbardziej wyedukowani pacjenci, po to żeby móc wyjaśnić wszystkie niuanse, żeby pacjent mógł je zrozumieć. Zrobienie czegoś w sposób innowacyjny to jedno, ale wytłumaczenie w prosty i przejrzysty sposób, jakie są ryzyka i konsekwencje tego działania, to już jest sztuka.

Finansowanie w polskim systemie ochrony zdrowia pozostaje problemem od lat, nie tylko w kontekście innowacji. Według ostatniego raportu OECD „Health at a Glance 2023” Polska wydaje na zdrowie średnio 2,97 tys. dol. rocznie w przeliczeniu na mieszkańca, czyli dużo mniej niż średnia OECD wynosząca blisko 5 tys. dol. Wydatki na zdrowie stanowią u nas 6,7 proc. PKB, podczas gdy średnia sięga 9,2 proc. Z raportu wynika również, że Polska w prawie połowie wskaźników odstaje od średniej z 38 państw członkowskich OECD.

– Główne oczekiwania wobec nowej minister zdrowia to przede wszystkim dialog i próba wypracowania wspólnego stanowiska ze wszystkimi stronami, czyli pacjentami, świadczeniodawcami, płatnikiem i AOTMiT-em, bo jeżeli nie usiądziemy razem do stołu, nie wypracujemy wspólnie tego, co chcemy zaoferować w ramach tego systemu, nie będzie zrozumienia kierunków zmian, to będą niepotrzebne nerwy. Każda zmiana, nawet dobrze zaprojektowana, musi zostać najpierw przedyskutowana. Z mojego doświadczenia wynika, że wymyślenie nowego wzorca finansowania czy organizacji danej procedury to jest ok. 20–25 proc. czasu. Reszta to jest przekonanie, fine tuning, dyskusja – mówi kierowniczka Zakładu Innowacji w Ochronie Zdrowia w SGH. – Musimy być otwarci na to, że nasza początkowa propozycja będzie zmieniona, musimy dostosować ją do oczekiwań interesariuszy będących w procesie i potem, co ważne, monitorować efekty.

Źródło: https://biznes.newseria.pl/news/polski-system-ochrony,p1417133905

Leczenie profilaktyczne w migrenie przekłada się na wyraźny spadek zażywania leków przeciwbólowych. Dobre efekty dają też leki zarejestrowane do innych schorzeń

0

Leki zalecane w profilaktyce migreny wykazują dużą skuteczność, która przekłada się na spadek recept na środki przeciwbólowe stosowane w trakcie ataków – wykazali naukowcy z Norwegii. Złotym standardem w profilaktyce są przeciwciała monoklonalne, ale to opcja droga i trudno dostępna dla chorych, dlatego badacze pochylili się nad wykorzystaniem tańszych alternatyw i ich skutecznością w walce z bólami migrenowymi. Jak wskazują ich obserwacje, leki z grupy beta-blokerów, a także środki na nadciśnienie, padaczkę i depresję mają równie wysoką skuteczność. Migrena staje się poważnym problemem społecznym. Światowa Organizacja Zdrowia wymienia ją wśród 20 chorób najbardziej wpływających na jakość życia pacjentów, ich aktywność zawodową i społeczną.

Migrena jest zaburzeniem neurologicznym, które charakteryzuje się atakami pulsującego bólu głowy, zazwyczaj po jednej stronie głowy, w okolicach skroni. Zazwyczaj towarzyszy jej nadwrażliwość na światło, dźwięk i zapachy, czasem także nudności i wymioty. Uważa się, że chorobę powodują zaburzenia funkcjonowania układu trójdzielno-naczyniowego, który łączy neurony czuciowe w pniu mózgu i naczynia krwionośne w otoczeniu wokół mózgu – oponach mózgowo-rdzeniowych. To dolegliwość, która występuje u ok. 14 proc. populacji, częściej u kobiet.

Przewlekła migrena zazwyczaj oznacza nasilone bóle migrenowe i określa się ją na podstawie liczby i stopnia nasilenia fazy bólu głowy. Osoba z przewlekłą migreną ma bóle głowy przez więcej niż połowę dni w miesiącu, co drugi dzień, i co najmniej przez osiem z tych dni występują bóle migrenowe. Wielu pacjentów z przewlekłą migreną doświadcza bólu głowy lub migrenowego bólu głowy prawie każdego dnia w miesiącu – wyjaśnia w rozmowie z agencją Newseria Innowacje prof. Marte-Helene Bjørk, neurolożka na Uniwersytecie w Bergen w Norwegii i konsultantka ze specjalizacją w dziedzinie neurologii w Szpitalu Uniwersyteckim w Haukelandzie, wicedyrektorka Norweskiego Centrum Badań nad Bólem Głowy (NorHEAD).

Przez wiele lat nie było skutecznego leczenia dla chorych na migrenę. Obecnie w celu przerwania epizodów migrenowych stosuje się przede wszystkim leki z grupy tryptanów. Większość z nich wydawana na podstawie zaleceń lekarza. Z kolei leki rekomendowane w profilaktyce migreny epizodycznej to beta-blokery i leki przeciwpadaczkowe. Złotym standardem w migrenie przewlekłej są natomiast przeciwciała anty-CGRP. Naukowcy z Norwegii postanowili porównać skuteczność dostępnych opcji leczenia, sprawdzając, jak przyjmowanie leków zapobiegających atakom przekłada się na liczbę recept wystawianych na leki o działaniu objawowym.

Chcieliśmy zbadać czas leczenia i skuteczność leków zapobiegających migrenie wśród całej populacji Norwegii. Wykorzystaliśmy dane z Norweskiego rejestru leków na receptę, w którym odnotowywana jest każda recepta wykupiona w Norwegii. Następnie zidentyfikowaliśmy pacjentów z migreną w tym rejestrze i przeanalizowaliśmy, jak stosują oni leki zapobiegające migrenie – opisuje prof. Marte-Helene Bjørk.

Naukowcy wykorzystali dane z krajowych rejestrów za lata 2010–2020. Przeanalizowali spożycie leków przeciw objawom migreny przed rozpoczęciem leczenia profilaktycznego i po nim. Sprawdzali, jak długo osoby cierpiące na migrenę stosowały różne metody tej terapii. W badaniu wzięło udział łącznie ponad 100 tys. pacjentów z migreną.

– Zaobserwowaliśmy, że wszystkie leki profilaktyczne stosowane w Norwegii są również zalecane na świecie i wykazują skuteczność w zapobieganiu migrenie. Zaobserwowaliśmy, że po rozpoczęciu przyjmowania leków zapobiegających migrenie spadła liczba recept wystawianych na leki objawowe, które zwalczają ataki i mają działanie przeciwbólowe, na przykład tryptany, które stosuje się w zaostrzeniu. Spadek liczby recept na te leki zinterpretowaliśmy jako zmniejszenie ataków migreny i ta obserwacja dotyczyła wszystkich leków profilaktycznych – podkreśla wicedyrektorka NorHEAD.

W Polsce od 2022 roku działa program lekowy, w którym w ramach leczenia profilaktycznego pacjenci otrzymują leczenie toksyną botulinową lub przeciwciałami monoklonalnymi anty-CGRP. Wyśrubowane kryteria włączenia sprawiają jednak, że taka profilaktyka trafia do wąskiej grupy chorych z migreną przewlekłą. U takich osób warto więc rozważyć wdrożenie innej opcji profilaktycznej, również wówczas, gdy będzie to zastosowanie „off label”, czyli poza wskazaniem rejestracyjnym.

Porównaliśmy różnego rodzaju leki zapobiegające migrenie z najbardziej popularnymi lekami profilaktycznymi, czyli beta-blokerami. Stwierdziliśmy, że wiele miało podobną skuteczność, ale niektóre były lepsze od beta-blokerów, na przykład amitryptylina, simwastatyna i przeciwciała anty-CGRP. Te ostatnie są znane ze swojej wysokiej skuteczności. Są jednak bardzo drogie i dlatego niedostępne dla większości osób cierpiących na migrenę – mówi ekspertka.

Jak podkreśla, już wiele lat temu odkryto, że leki stosowane na inne choroby i zaburzenia mogą pomagać w walce z bólami migrenowymi,

– Zostało to odkryte przypadkowo i przeprowadzono badania w celu potwierdzenia. Wiemy, że leki przeciw nadciśnieniu powodują również zmniejszenie bólów migrenowych, nawet jeśli pacjent nie ma nadciśnienia. To samo dotyczy leków na padaczkę, które są skuteczne w zwalczaniu migreny również u osób, które nie cierpią na padaczkę. Również w przypadku antydepresantów, nawet jeśli dana osoba nie ma depresji, leki przeciwdepresyjne pomagają na migrenę. Nie wiemy dokładnie, dlaczego te leki są skuteczne, prawdopodobnie ze względu na zmianę wrażliwości na ból w pniu mózgu – wyjaśnia prof. Marte-Helene Bjørk. – Leki stworzone pierwotnie w celu leczenia innych schorzeń, na przykład amitryptylina, simwastatyna czy kandesartan, okazały się skuteczne w leczeniu migreny i są przystępne cenowo, co sprawia, że są dostępne dla pacjentów z migreną na całym świecie.

Naukowcy z NorHEAD rozpoczęli już prace nad badaniami klinicznymi, które mają wykazać, że leki na wysoki cholesterol mogą być stosowane w profilaktyce migreny.

Migrena jest poważnym problemem społecznym. Uciążliwe i często występujące bóle migrenowe przekładają się na zmniejszoną wydajność w pracy i częste zwolnienia lekarskie. Z danych Narodowego Instytutu Zdrowia Publicznego – Polskiego Zakładu Higieny wynika, że rocznie z powodu migreny wystawia się w Polsce zwolnienia lekarskie na łącznie niemal 100 tys. dni. Roczne koszty pośrednie absenteizmu (skutki absencji chorobowych) w przypadku migreny to prawie 31 mln zł. Koszty prezenteizmu (spadek wydajności u osób, które mimo nasilenia objawów pojawiają się w pracy) to ponad 10 tys. zł. na osobę.

Źródło: https://biznes.newseria.pl/news/leczenie-profilaktyczne-w,p1666458337

Niskie temperatury to sezon na częste awarie akumulatorów. Ten problem to zmora także dla kierowców elektryków

0

Akumulator jest najczęstszą przyczyną awarii samochodów. Jak wskazują dane patroli drogowych ADAC, dominuje w zestawieniach od 1967 roku, od kiedy zbierane są statystyki. W 2022 roku w Niemczech ponad 40 proc. z 3,4 mln interwencji na drogach dotyczyło właśnie problemów z akumulatorem 12 V. W przypadku samochodów elektrycznych udział ten jest jeszcze większy i wynosi ponad połowę. Każdorazowo taka awaria oznacza stres i dodatkowe koszty, których można uniknąć przez odpowiednią diagnostykę akumulatora. W okresie zimowym to szczególnie istotne, bo niskie temperatury i obciążenie ze strony ogrzewania nie sprzyjają żywotności tego elementu pojazdów.

– Ze statystyk firmy ADAC, która świadczy usługi pomocy drogowej w Europie, wynika, że w 2022 roku 43 proc. interwencji na drodze dotyczyło właśnie niesprawnego akumulatora, a jeżeli weźmiemy pod lupę tylko pojazdy elektryczne, to mowa o prawie 55 proc. przypadków interwencji związanych z akumulatorem niskonapięciowym. Co to oznacza? Że akumulator jest niezwykle istotnym elementem pojazdów konwencjonalnych, spalinowych, jak również elektrycznych. Bez sprawnego akumulatora nie ma możliwości uruchomienia silnika lub też aktywacji układu wysokiego napięcia w pojeździe elektrycznym. Krótko mówiąc, niesprawny akumulator oznacza kłopoty, stres i dodatkowe koszty – mówi agencji Newseria Biznes Adam Potępa, menedżer ds. kluczowych klientów w firmie Clarios, która jest właścicielem marki VARTA.

Na żywotność akumulatora wpływ ma wiele czynników. To m.in. jeżdżenie tylko na krótkich odcinkach. W takim czasie alternator często nie jest w stanie uzupełnić energii, która została pobrana na rozruch silnika. Także sporadyczne korzystanie z auta może być problematyczne – z akumulatora pobierana jest energia do obsługi systemów bezpieczeństwa (takich jak autoalarm, centralny zamek), systemów komfortu (takich jak bezkluczykowe otwieranie drzwi) i dodatkowych odbiorników (takich jak kamery, GPS, odstraszacze gryzoni), co w konsekwencji prowadzi do rozładowania akumulatora. Zimą na żywotność tego komponentu wpływają także niskie temperatury, które ograniczają reakcje chemiczne i powodują chwilowy spadek wydajności akumulatora. W przypadku egzemplarzy w kiepskim stanie technicznym może to prowadzić do problemów z uruchomieniem auta.

– Kierowcy również korzystają z dodatkowych odbiorników, takich jak podgrzewane siedzenia, lusterka, szyby czy też kierownica, a to wszystko wpływa negatywnie na bilans energetyczny i może prowadzić do awarii – wymienia ekspert Clariosa.

Akumulator 12 V pozostaje najczęstszą przyczyną usterek, niezależnie od rodzaju napędu pojazdu, również w coraz popularniejszych na europejskich drogach elektrykach.

Rola akumulatorów 12 V w pojazdach elektrycznych jest niezwykle istotna, ale często niedoceniana przez użytkowników tych pojazdów. Zasada jest prosta, bez sprawnego akumulatora nie ma możliwości aktywacji układu wysokiego napięcia, a tym samym również jazdy takim pojazdem – wyjaśnia Adam Potępa. – Na drogach jest już szereg pojazdów starszych, w których akumulatory 12 V już dawno osiągnęły swój oczekiwany okres eksploatacji.

Zakładany okres eksploatacji takiego akumulatora wynosi cztery–pięć lat. Po tym czasie wymaga wymiany. W niektórych przypadkach problem może też wynikać ze sposobu wykorzystania akumulatora 12 V w instalacji elektrycznej lub z niedopracowanej strategii jego ładowania. To często skutkuje głębokim rozładowaniem, ponieważ pobór mocy przekracza pojemność akumulatora. Jak wyjaśnia ekspert, jeżeli nie zostanie on potem prawidłowo naładowany, np. gdy samochód długo stoi bez zasilania lub gdy akumulator 12 V nie jest wystarczająco doładowywany przez akumulator wysokonapięciowy w trakcie jazdy, ryzyko awarii wzrasta. W takich przypadkach pomóc mogłaby poprawa strategii ładowania akumulatora 12 V przez producentów lub zastosowanie akumulatorów o większych pojemnościach.

– Jest jeszcze kwestia regularnych aktualizacji zdalnych, tak zwanych automatycznych, które także rozładowują akumulator 12 V w momencie, kiedy są przeprowadzane – wyjaśnia menedżer ds. kluczowych klientów w firmie Clarios.

Specjaliści doradzają kierowcom elektryków kilka sposobów na to, jak dbać o kondycję akumulatora w sezonie zimowym. Zalecane jest parkowanie aut, jeśli jest taka możliwość, w garażach, gdzie panują lepsze warunki zarówno dla akumulatora niskonapięciowego, jak i wysokonapięciowego.

Jest to szczególnie istotne dla zapewnienia działania funkcji bezpieczeństwa i zdalnych aktualizacji – tłumaczy Adam Potępa. – Po drugie, kwestia ogrzewania postojowego – tę funkcję warto wykorzystywać w momencie, kiedy pojazd jest podłączony do stacji ładowania, wtedy nie skracamy zasięgu pojazdu elektrycznego. Z kolei w przypadku poruszania się takim autem warto skorzystać z wydajnych, bardziej efektywnych źródeł ogrzewania, jakim jest ogrzewanie kierownicy lub też siedzeń.

Dodaje jednak, że w przypadku ogrzewania przed jazdą w samochodzie elektrycznym też trzeba zachować czujność. W niektórych modelach energia do zasilania ogrzewania jest nadal czerpana z akumulatora 12 V. Gdyby uległ on rozładowaniu, zanim akumulator wysokonapięciowy zostanie całkowicie naładowany, nie będzie można wysunąć wtyczki od przewodu ładowania, ponieważ ta funkcja jest zasilana właśnie z akumulatora niskonapięciowego. 

Jak podkreśla ekspert, obecne akumulatory określane są jako bezobsługowe, ale to wcale nie oznacza, że należy o nich zapominać podczas rutynowych przeglądów auta. Tym bardziej że kierowcy często bagatelizują pierwsze sygnały – takie jak przygasające kontrolki na desce rozdzielczej czy światła mijania podczas rozruchu silnika – lub ich nie zauważają, a dostrzegają problem dopiero w momencie, gdy już nie można uruchomić silnika.

– Okres zbliżających się ferii zimowych to idealny moment na to, aby pojawić się w serwisie. W ramach programu testowania akumulatorów VARTA skupiamy w Polsce 3 tys. serwisów, które świadczą usługi weryfikacji stanu technicznego akumulatora w ramach rutynowych czynności serwisowych lub na życzenie klienta. Pełna lista takich serwisów znajduje się na stronie varta-automotive.com. Za pomocą specjalnych narzędzi diagnostycznych możliwa jest weryfikacja stanu akumulatora, poprawności ładowania oraz zachowania akumulatora w momencie, kiedy następuje rozruch silnika, lub też weryfikacja poboru prądu w momencie, kiedy z pojazdu nie korzystamy – wyjaśnia Adam Potępa.

Zwłaszcza w przypadku nowych samochodów i egzemplarzy, w których dostęp do akumulatora jest utrudniony, warto skorzystać z pomocy serwisu, często bezpłatnej. Również w razie konieczności wymiany akumulatora 12 V na nowy wskazane jest zrobienie tego w warsztacie – chodzi bowiem nie tylko o prostą zamianę jednego komponentu, lecz również jego adaptację i dostosowanie niektórych funkcji. Poza tym serwis gwarantuje, że stary akumulator zostanie oddany do recyklingu, a nie zalegnie na wysypisku śmieci.

Źródło: https://biznes.newseria.pl/news/niskie-temperatury-to,p1422655562

Pracoholicy czują się w pracy gorzej niż inni pracownicy. Doświadczają stanów podobnych do innych uzależnionych osób

0

Pracoholicy zgłaszają gorsze samopoczucie niż inne osoby w organizacjach. Nie poprawia go nawet zajęcie się pracą i obowiązkami, czyli rzeczami, od których są uzależnieni – wykazali włoscy naukowcy. Oznaki spłaszczenia emocjonalnego, które zaobserwowano u osób zmagających się z uzależnieniem od pracy, są podobne do tych, których doświadczają osoby uwikłane w inne nałogi. Pracoholizm niesie szereg konsekwencji zdrowotnych, przede wszystkim dla zdrowia psychicznego, ale nie tylko. To czynnik zwiększający też ryzyko chorób sercowo-naczyniowych.

Naukowcy włączyli do badania 139 pełnoetatowych pracowników. Najpierw zastosowano u nich test psychologiczny, aby ocenić poziom zależności uczestników od pracy. Następnie badacze przeanalizowali nastrój pracowników i ich postrzeganie obciążenia pracą, stosując metodę próbkowania doświadczenia. Odbywało się to za pomocą aplikacji zainstalowanej na telefonach uczestników, która umożliwiała wysyłanie krótkich ankiet mniej więcej co 90 min w godzinach od 9:00 do 18:00 przez trzy dni robocze (poniedziałek, środa i piątek). Wyniki badania zostały opublikowane niedawno w „Journal of Occupational Health Psychology”.

Odkryliśmy, że osoby, które wykazują większe skłonności do pracoholizmu, zazwyczaj zgłaszają więcej negatywnych reakcji emocjonalnych związanych z pracą i czynnościami jej towarzyszącymi. Intuicja podpowiadałaby, że osoby, które są pracoholikami, zazwyczaj doświadczają pozytywnych reakcji emocjonalnych, przebywając w pracy, ponieważ koncentrują się na jednej rzeczy, która zajmuje kluczowe miejsce w ich życiu, czyli na działalności zawodowej. Bynajmniej, odkryliśmy coś całkowicie odmiennego. Jeśli wykazujesz większe skłonności do pracoholizmu, nie doświadczasz pozytywnych reakcji emocjonalnych w pracy, lecz więcej negatywnych w porównaniu z osobami, które nie wykazują tak dużych skłonności – informuje w wywiadzie dla agencji Newseria Innowacje prof. Cristian Balducci z Wydziału Studiów nad Jakością Życia na Uniwersytecie Bolońskim.

To odkrycie pozwala przypuszczać, że pracoholizm rzeczywiście ma dużo wspólnego z innymi uzależnieniami. Podobnie jak w przypadku narkotyków czy alkoholu osobom uzależnionym po zażyciu tych substancji, a w przypadku pracoholików podczas wykonywania obowiązków nie towarzyszy poczucie ulgi, ale negatywne stany afektywne.

Na podstawie badania stwierdzono, że większość pracoholików ma średnio gorszy nastrój niż pozostali uczestnicy badania. W przeciwieństwie do innych pracowników pracoholicy utrzymują bardziej negatywny nastrój przez cały dzień. Zmniejszona reaktywność nastroju na bodźce zewnętrzne jest oznaką spłaszczenia emocjonalnego, które jest zjawiskiem występującym również w innych typach uzależnień.

Kolejnym interesującym odkryciem wynikającym z badań jest to, że kobiety są zazwyczaj bardziej narażone na skłonności do pracoholizmu w porównaniu do mężczyzn. Jeżeli są pracoholiczkami, doświadczają lub mogą doświadczać więcej negatywnych stanów afektywnych niż mężczyźni. Oznacza to, że osobowość pracoholika lub skłonności do pracoholizmu mogą być bardziej szkodliwe dla kobiet niż dla mężczyzn – wskazuje prof. Cristian Balducci.

Przepracowanie może nieść negatywne skutki dla zdrowia psychicznego, prowadząc do wypalenia zawodowego, ale czynników ryzyka jest więcej, bo – jak wskazuje badacz – emocje zazwyczaj wykazują korelacje z reakcjami fizjologicznymi. W toku badania ustalono, że osoby wykazujące skłonności do pracoholizmu zgłaszają wyższe poziomy skurczowego i rozkurczowego ciśnienia krwi. W Japonii bardzo dobrze zostało udokumentowane zjawisko karoshi, czyli śmierci z przepracowania, która następuje wskutek zawału serca lub popełnienia samobójstwa. W białej księdze japońskiego Ministerstwa Zdrowia, Pracy i Opieki Społecznej z 2023 roku wskazano, że ponad 10 proc. mężczyzn i ponad 4 proc. kobiet w tym kraju pracuje więcej niż 60 godzin tygodniowo. Prawie 27 proc. osób pracujących w takim wymiarze zaobserwowało u siebie objawy depresji lub stanów lękowych.

– Pracoholizm może być pewnego rodzaju chorobą. W ścisłym znaczeniu tego słowa trudno jest nazwać ten stan chorobą tylko dlatego, że ma negatywne konsekwencje. Nie jest oficjalnie uznany za jednostkę chorobową, przynajmniej obecnie. Może stanie się tak w przyszłości – mówi badacz z Uniwersytetu Bolońskiego. – Metaanaliza przeprowadzona w tym obszarze, której wyniki niedawno opublikowano, sugeruje, że pracoholizm to częste zjawisko, które dotyka około 15 proc. aktywnej zawodowo populacji. Jest to zatem zjawisko, którego nie można ignorować, ponieważ dotyka znacznej liczby pracowników i ma poważne następstwa.

Receptą na pracoholizm powinno być zdaniem naukowców promowanie idei work–life balance, czyli dążenie do równowagi między życiem zawodowym i osobistym.

– Musimy w pewnym momencie zakończyć pracę i przejść do innego rodzaju czynności, w szczególności tych, które uważamy za przyjemne i które nie mają nic wspólnego z pracą. W ten sposób przestajemy pracować i możemy się zregenerować po utracie energii, która została spożytkowana na obowiązki zawodowe. Kolejny dzień rozpoczynamy z wyższym poziomem zaangażowania i nie doświadczamy negatywnych konsekwencji pracoholizmu, bo nie pracowaliśmy wieczorami ani w weekend. Zasadniczo należy się nauczyć sposobu na odcięcie od pracy i spędzanie czasu na dobrych dla nas czynnościach, które nie mają nic wspólnego z pracą – radzi ekspert.

Wciąż jednak w wielu miejscach świadczenie pracy w dni wolne od zajęć i poza godzinami pracy nie jest uznawane za zjawisko negatywne, lecz wręcz pożądane. Najłatwiej odcinać się od pracy mogą pracownicy fizyczni. Najtrudniej przychodzi to osobom na stanowiskach wymagających wysiłku umysłowego oraz kadrze menedżerskiej. W ich przypadku część zadań bardzo często da się wykonywać zdalnie, z domu, a to nie sprzyja stawianiu granicy między czasem służbowym a prywatnym.

– Muszą one uświadomić sobie, jak ważna jest taka zdolność i jak ważne jest przeznaczenie czasu na inne aktywności. Jest to również istotne z punktu widzenia organizacji, ponieważ pracoholizm wpływa też negatywnie na wyniki pracy. Jeśli przez dłuższy czas pracujemy wieczorami i podczas weekendów, nie możemy się zregenerować. To oznacza, że na dłuższą metę nasza wydajność spadnie, ponieważ potrzebne są duże nakłady energii i wysiłku na utrzymanie tego samego poziomu wydajności, jeśli nie możemy zregenerować sił i nie czujemy się zbyt dobrze – uważa prof. Cristian Balducci.

Źródło: https://biznes.newseria.pl/news/pracoholicy-czuja-sie-w,p749712048

Nadmierny kontakt dziecka z urządzeniami cyfrowymi negatywnie wpływa na rozwój mózgu. Mogą się pojawić problemy z opanowaniem mowy, kontrolą emocji i koncentracją

0

Aktywność cyfrowa wpływa na plastyczność mózgu u dzieci w krytycznych okresach ich rozwoju. Efektem przeciążenia ekspozycją na bodźce wzrokowe może być pogorszenie pamięci roboczej i spowolnienie reakcji. Spędzanie przez dzieci dużo czasu przed ekranem negatywnie wpływa też na zdolności językowe i koncentrację. Jednocześnie granie w gry wideo może stymulować pewne obszary mózgu, odpowiedzialne m.in. za podejmowanie decyzji. Do takich wniosków doszli naukowcy z Hongkongu po przeanalizowaniu dziesiątek badań z tego obszaru.

  Ludzki mózg kształtowany jest przez otoczenie i doświadczenia. W pierwszej kolejności chcieliśmy wiedzieć, czy dynamiczny rozwój urządzeń cyfrowych ma wpływ na rozwój mózgu u dziecka oraz w jaki sposób urządzenia te go kształtują – mówi agencji Newseria Innowacje dr Dandan Wu z Education University of Hong Kong. – Co istotne, nie uważamy, by urządzenia cyfrowe wiązały się z samymi niebezpieczeństwami i negatywnymi konsekwencjami. Stały się one nieodłączonym elementem życia we współczesnym społeczeństwie. Problem polega na tym, że nie wiemy do końca, jak wpływają na mózg dzieci na wczesnych etapach ich rozwoju. I to właśnie skłoniło nas do podjęcia badań.

Naukowcy dokonali przeglądu literatury poświęconej korzystaniu z rozwiązań cyfrowych przez dzieci i powiązanego z nimi rozwoju mózgu. Wzięli pod lupę badania dotyczące dzieci w wieku od szóstego miesiąca do 12. roku życia, na który przypada koniec kształtowania kompetencji językowych. Przegląd literatury objął łącznie 30 tys. dzieci, które najczęściej korzystały z różnego typu mediów ekranowych. W sumie naukowcy przeanalizowali 33 badania neuroobrazowe z lat 2000–2023. W 23 odnotowano wpływ urządzeń cyfrowych na plastyczność mózgu: 15 z nich wskazywało na negatywne skutki, dwa dały mieszane wyniki, a sześć publikacji dowodziło, że korzystanie z ekranów może pod pewnymi względami pozytywnie kształtować funkcje mózgu.

Część publikacji wskazuje na negatywny wpływ urządzeń cyfrowych na korę przedczołową mózgu odpowiedzialną za pamięć roboczą i reakcje, płat ciemieniowy, który wpływa na przetwarzanie bodźców, takich jak dotyk czy odczuwanie temperatury, płat skroniowy, kluczowy dla języka, pamięci i słuchu, oraz płat potyliczny, dzięki któremu interpretujemy informacje wzrokowe.

 Dzieci, które spędzają dużo czasu na grach wideo, będą miały więcej problemów z wysławianiem się. Jeżeli natomiast zbyt długo przebywają w sieci, może u nich dojść do spadku objętości pewnych obszarów mózgu, co będzie miało konsekwencje dla funkcji językowych i kontroli emocji. Będą miały problemy z formułowaniem zdań czy radzeniem sobie ze swoimi emocjami. Z kolei częste codzienne korzystanie z mediów społecznościowych może wywrzeć wpływ na funkcje mózgu w zakresie przetwarzania wzrokowego – wymienia prof. Hui Li z Wydziału Edukacji i Rozwoju Człowieka na Education University of Hong Kong.

Okazuje się, że dla mózgu dziecka dużym wyzwaniem jest multitasking, czyli wielozadaniowość, a im więcej czasu spędza ono przed ekranem, tym trudniej zachować mu jasność myślenia i kontrolę nad sobą.

– Po pierwsze, długotrwała ekspozycja na tego typu bodźce ingeruje w funkcje mózgu, co może prowadzić do spowolnienia pamięci roboczej oraz szybkości reakcji. Dziecko będzie miało na przykład problemy ze skupieniem uwagi. Nie będzie też w stanie powstrzymać się od używania urządzeń cyfrowych takich jak ipady czy smartfony. Po drugie, mózg dziecka będzie reagował silniej na rozpraszające dźwięki, np. w grach. Za każdym razem, gdy usłyszy charakterystyczny dźwięk z gry, przyciągnie on jego uwagę, odwracając ją od nauki – tłumaczy prof. Hui Li.

Profesor porównuje mózg dziecka do komputera. Urządzenie, w którym zainstalujemy za dużo aplikacji i programów, zajmiemy pamięć na dysku, będzie działało wolniej, a w końcu się zepsuje. W takiej sytuacji jedyne opcje to zakup większego dysku, dodatkowej pamięci lub nowego komputera. Jeśli dziecko będzie spędzało za dużo czasu przed ekranem, osłabnie jego zdolność do przyjmowania płynących z zewnątrz informacji. Pamięć robocza zostanie przeciążona nadmiarem zadań.

– Może dojść do zmian w funkcjonowaniu lub strukturze mózgu. Wydaje się, że jest to dobry powód, by ograniczać ilość czasu, jakie dzieci spędzają przed ekranem, i zachęcać je do robienia innych rzeczy, jak np. zabawa na świeżym powietrzu czy pójście do lasu – radzi badacz z Education University of Hong Kong. – Każdy medal ma jednak dwie strony. Choć skupiamy się na negatywnych aspektach, wiadomo, że mają one pod pewnymi względami również korzystny wpływ. Istnieją na przykład badania pokazujące, że interakcja z urządzeniami i środowiskiem cyfrowym może stymulować pewne obszary, np. płat czołowy, który odgrywa ważną rolę w funkcjach wykonawczych, w tym pamięci roboczej, przesunięciu poznawczym, podejmowaniu decyzji czy samokontroli. Tego typu korzystanie z urządzeń cyfrowych można porównać do chodzenia na siłownię. W tym przypadku treningowi poddawany jest mózg.

Pytanie, jak chronić mózg dziecka w obecnej cyfrowej rzeczywistości, pozostaje otwarte. Badacze podkreślają, że przed nauką stoi wyzwanie dogłębnego zbadania tego tematu, a przed decydentami podjęcie działań, które pomogą rodzicom i opiekunom bezpiecznie prowadzić dzieci po cyfrowym świecie.

– Kluczowe znaczenie ma ustalenie, które elementy cyfrowego środowiska mają toksyczny wpływ. Dopiero wtedy będziemy w stanie stworzyć odpowiednie rozwiązania zapewniające naszym dzieciom ochronę. Potrzebne są dalsze badania empiryczne – ocenia dr Dandan Wu. – Oglądanie telewizji okazało się mniej szkodliwe, niż przez długi czas sądzono. Musimy jednak pamiętać, że przykładowo ograniczenia dotyczące pokazywania w telewizji scen przemocy wprowadzono dopiero wówczas, gdy istniało wystarczająco dowodów naukowych potwierdzających ich szkodliwość.

Jak podkreślają naukowcy, trzeba mieć na uwadze, że wpływ tych technologii jest długofalowy.

– W perspektywie 10–20 lat te nowoczesne rozwiązania z całą pewnością spowodują zmiany w mózgu, które będą dziedziczone. Możemy mieć pewność, że za 20–50 lat mózgi ludzi będą wyglądać w dużym stopniu inaczej niż obecnie – mówi prof. Hui Li. – Można zatem powiedzieć, że urządzenia cyfrowe wpływają na kształt ludzkiej ewolucji. Mamy za sobą 10 tys. lat ewolucji, a w tym momencie wkraczamy w jej nowy etap – erę cyfrową. Urządzenia cyfrowe i narzędzia sztucznej inteligencji wywrą ogromny wpływ na kształt naszych mózgów i zmiana ta może przejść na kolejne pokolenia.

Według wytycznych Światowej Organizacji Zdrowia dzieci poniżej pierwszego roku życia nie powinny w ogóle korzystać z urządzeń cyfrowych, a dzieci w wieku dwóch–czterech lat maksymalnie mogą spędzać przed ekranem godzinę dziennie, ale im mniej, tym lepiej. Tymczasem, jak wynika z badania przeprowadzonego przez Akademię Pedagogiki Specjalnej w Warszawie, w Polsce ponad połowa dzieci do szóstego roku życia korzysta ze smartfonów, tabletów lub laptopów średnio przez godzinę i 15 minut dziennie. Trzy czwarte rodziców pięcio- i sześciolatków oraz połowa rodziców trzy- i czterolatków pozwala im korzystać z cyfrowych narzędzi mobilnych. Smartfona używa co 10. dziecko przed pierwszym rokiem życia. Prawie dwie trzecie rodziców daje swoim pociechom urządzenia cyfrowe jako nagrodę albo jako sposób na zahamowanie płaczu i marudzenia malucha. Dzieci najczęściej oglądają filmy, filmiki i klipy wideo, nieco rzadziej grają w gry, a najrzadziej korzystają z programów i aplikacji edukacyjnych.

Źródło: https://biznes.newseria.pl/news/nadmierny-kontakt-dziecka,p282699435

Ochrona przed deepfake’ami staje się coraz pilniejszą potrzebą. Innowacyjna technologia pozwoli zapobiec fałszowaniu mowy

0

Deepfake stanie się w najbliższych latach jednym z podstawowych narzędzi w rękach cyberprzestępców. Technika łączenia zdjęć, filmów i głosu – często wykorzystywana w celach rozrywkowych – może być także groźnym instrumentem służącym dezinformacji, ale i atakom wyłudzającym dane czy pieniądze. Walka z takimi zagrożeniami staje się przedmiotem prac wielu naukowców. Badacze z Uniwersytetu Waszyngtona w St. Louis opracowali mechanizm obronny AntiFake, który ma zapobiegać nieautoryzowanej syntezie mowy, utrudniając sztucznej inteligencji odczytanie kluczowych cech głosu. Zapotrzebowanie na takie narzędzia będzie rosło wraz z rozwojem rynku generatywnej SI.

– Pojęcie „deepfake” składa się z dwóch członów. Pierwszy z nich, deep, odnosi się do głębokich sieci neuronowych, które stanowią najbardziej rozwinięty aspekt uczenia maszynowego. Fake oznacza tworzenie fałszywego obrazu twarzy lub głosu. W naszym kontekście słowo to oznacza, że cyberprzestępca może wykorzystać głębokie sieci neuronowe, aby podrobić mowę danej osoby – mówi w wywiadzie dla agencji Newseria Innowacje Zhiyuan Yu, doktorant na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis. – Zastosowanie deepfake’ów do celów złośliwych ataków może przybrać wiele form. Jedną z nich jest wykorzystanie ich do rozpowszechniania fałszywych informacji i mowy nienawiści, również na podstawie głosu osób powszechnie znanych. Przykładowo przestępca użył głosu prezydenta Bidena, aby wypowiedzieć Rosji wojnę. Mieliśmy również do czynienia z sytuacjami, kiedy cyberprzestępca wykorzystał głos użytkownika, aby przejść weryfikację tożsamości w banku. Takie sytuacje stały się częścią naszego życia.

Eksperci WithSecure przewidują, że w 2024 roku dojdzie do nasilenia problemu dezinformacji z użyciem technologii deepfake. Będzie się tak działo głównie z uwagi na to, że to rok wyborów prezydenckich w USA oraz do Parlamentu Europejskiego.

W obliczu zagrożeń związanych z deepfake’ami proponujemy aktywne przeciwdziałanie im za pomocą technologii AntiFake. Powstałe dotychczas rozwiązania systemowe opierają się na wykrywaniu zagrożeń. Wykorzystują techniki analizy sygnału mowy lub metody wykrywania oparte o fizykę, aby rozróżnić, czy dana próbka jest autentyczną wypowiedzą danej osoby, czy została wygenerowana przez sztuczną inteligencję. Nasza technologia AntiFake opiera się jednak na zupełnie innej metodzie proaktywnej – mówi Zhiyuan Yu.

Wykorzystana przez twórców metoda bazuje na dodaniu niewielkich zakłóceń do próbek mowy. Oznacza to, że gdy cyberprzestępca użyje ich do syntezy mowy, wygenerowana próbka będzie brzmiała zupełnie inaczej niż użytkownik. Nie uda się więc za jej pomocą oszukać rodziny ani obejść głosowej weryfikacji tożsamości.

Niewiele osób ma dostęp do wykrywaczy deepfake’ów. Wyobraźmy sobie, że dostajemy e-mail, który zawiera próbkę głosu, lub otrzymujemy taką próbkę na portalu społecznościowym. Niewiele osób poszuka wtedy wykrywacza w sieci, aby przekonać się, czy próbka jest autentyczna. Według nas ważne jest przede wszystkim zapobieganie takim atakom. Jeśli przestępcy nie uda się wygenerować próbki głosu, który brzmi jak głos danej osoby, do ataku wcale nie dojdzie – podkreśla badacz.

Od strony technologicznej rozwiązanie bazuje na dodaniu zakłóceń do próbek dźwięku. Projektując system, twórcy musieli się zmierzyć z kilkoma problemami projektowymi. Pierwszym było to, jakiego rodzaju zakłócenia powinny zostać nałożone na dźwięk tak, by były niewychwytywalne dla ucha, a jednak skuteczne.

– To prawda, że im więcej zakłóceń, tym lepsza ochrona, jednak gdy oryginalna próbka będzie się składać z samych zakłóceń, użytkownik nie może z niej w ogóle korzystać – mówi Zhiyuan Yu.

Ważne było też to, by stworzyć rozwiązanie uniwersalne, które sprawdzi się w różnego rodzaju syntezatorach mowy.

Zastosowaliśmy model uczenia zespołowego, na potrzeby którego zebraliśmy różne modele i stwierdziliśmy, że enkoder mowy jest bardzo ważnym elementem syntezatora. Przekształca on próbki mowy na wektory, które odzwierciedlają cechy mowy danej osoby. Jest on najważniejszym elementem syntezatora stanowiącym o tożsamości osoby mówiącej w wygenerowanej mowie. Chcieliśmy zmodyfikować osadzone fragmenty z zastosowaniem enkodera. Użyliśmy czterech różnych enkoderów, aby zapewnić uniwersalne zastosowanie do różnych próbek głosu – wyjaśnia naukowiec z Uniwersytetu Waszyngtona w St. Louis.

Kod źródłowy technologii opracowanej na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis jest ogólnodostępny. W testach prowadzonych na najpopularniejszych syntezatorach AntiFake wykazał 95-proc. skuteczność. Poza tym narzędzie to było testowane na 24 uczestnikach, aby potwierdzić, że jest dostępne dla różnych populacji. Jak wyjaśnia ekspert, głównym ograniczeniem tego rozwiązania jest to, że cyberprzestępcy mogą próbować obejść zabezpieczenie, usuwając zakłócenia z próbki. Istnieje też ryzyko, że pojawią się nieco inaczej skonstruowane syntezatory, co do których tak pomyślana technologia nie będzie już skuteczna. Zdaniem ekspertów będą jednak w dalszym ciągu toczyć się prace nad wyeliminowaniem ryzyka ataków za pomocą deepfake’ów. Obecnie AntiFake potrafi chronić krótkie nagrania, ale nic nie stoi na przeszkodzie, aby rozwijać go do ochrony dłuższych nagrań, a nawet muzyki.

Jesteśmy przekonani, że niedługo pojawi się wiele innych opracowań, które będą miały na celu zapobieganie takim problemom. Nasza grupa pracuje właśnie nad ochroną przed nieuprawnionym generowaniem piosenek i utworów muzycznych, ponieważ dostajemy wiadomości od producentów i ludzi pracujących w branży muzycznej z zapytaniami, czy nasz mechanizm AntiFake można wykorzystać na ich potrzeby. Ciągle więc pracujemy nad rozszerzeniem ochrony na inne dziedziny – podkreśla Zhiyuan Yu.

Future Market Insights szacował, że wartość rynku generatywnej sztucznej inteligencji zamknie się w 2023 roku w kwocie 10,9 mld dol. W ciągu najbliższych 10 lat jego wzrost będzie spektakularny, bo utrzyma się na poziomie średnio 31,3 proc. rocznie. Oznacza to, że w 2033 roku przychody rynku przekroczą 167,4 mld dol. Autorzy raportu zwracają jednak uwagę na to, że treści generowane przez sztuczną inteligencję mogą być wykorzystywane w złośliwy sposób, na przykład w fałszywych filmach, dezinformacji lub naruszeniach własności intelektualnej.

Źródło: https://biznes.newseria.pl/news/ochrona-przed,p138736726