środa, Czerwiec 19, 2019
Facebook
Home Archiwa 2018 Grudzień

Miesięczne archiwaGrudzień 2018

Niedawno zakończył się plebiscyt „Responsible Business Awards”,  w którym kapituła konkursu oraz członkowie Rady Klubu Executive Club przyznali nagrodę Diament CSR. Trafiła ona do firmy Konsalnet Holding SA za wdrożenie idei odpowiedzialnego biznesu oraz wyróżnienie działaniami w zakresie zrównoważonego rozwoju.

Reagując na wyzwania współczesnego świata, Konsalnet angażuje się w projekty z zakresu społecznej odpowiedzialności biznesu, a wiele z nich inicjuje. Firma od lat wspiera wydarzenia kulturalne, dobroczynne oraz akcje społeczne. Przykładem takiego działania jest m.in. pomoc wychowankom z Fundacji Siemacha oraz SOS Wioski Dziecięce. Co ważne, w ubiegłym roku prezes Konsalnet Holding SA, pan Jacek Pogonowski otrzymał tytuł CEO roku w konkursie Diamenty Private Equity 2017, organizowanym przez Polskie Stowarzyszenie Inwestorów Kapitałowych i Executive Club.

Executive Club jeden z organizatorów i pomysłodawca konkursu to elitarna organizacja zrzeszająca wyłącznie top management, najbardziej prestiżowe forum kadry menedżerskiej, którego celem jest integracja oraz wymiana doświadczeń przedstawicieli świata biznesu. Jako jedna z pierwszych tego typu organizacji w Polsce, Executive Club łączy ludzi związanych z rozmaitymi sektorami gospodarki. Executive Club jest organizatorem konferencji „Sustainable Economy Summit”, poświęconej tematyce zrównoważonego i odpowiedzialnego biznesu. 

Wśród innych nagrodzonych znaleźli się:

WIZJONER ODPOWIEDZIALNEGO BIZNESU

Dominika Bettman, Prezes Zarządu, Siemens Polska

LIDER ZRÓWNOWAŻONEGO BUDOWNICTWA

Skanska SA

Grupa Górażdże – wyróżnienie

LIDER ZRÓWNOWAŻONEJ PRODUKCJI

Unilever Polska

LIDER EKOLOGII W ENERGETYCE

Schneider Electric Polska

LIDER TECHNOLOGII DLA ZRÓWNOWAŻONEGO ROZWOJU

BASF Polska

Robert BOSCH – wyróżnienie

LIDER ETYKI W BIZNESIE

Lyreco Polska

LIDER FAIR TRADE

Eurocash SA

IKEA Polska

LIDER ZRÓWNOWAŻONEGO FINANSOWANIA

ING Bank Śląski SA

LIDER ZAANGAŻOWANIA PRACOWNICZEGO

Benefit Systems SA

VIVENGE

NAGRODY SPECJALNE „DIAMENT CSR”

Pfizer Polska

Konsalnet Holding SA

PKO Bank Polski SA

Producent słynie nie tylko z dobrej jakości samych sprzętów, ale także z wielkiego serca. Od ponad 13 lat, poprzez Fundację Amicis, pomaga on potrzebującym, przekazując AGD, paczki żywnościowe, ale też wartości pieniężne na cele charytatywne. Podczas świąt bożonarodzeniowych wielkopolski „Gwiazdor” z Wronek przekazuje też paczki z zabawkami dla dzieci – jedną z takich wizyt uwieczniliśmy niedawno w naszym obiektywie.

Czas świąt to idealny okres, aby podzielić się dobrem z najbardziej potrzebującymi. Amica wraz z Fundacją Amicis już od wielu lat wspiera lokalne inicjatywy, zwłaszcza te organizowane na terenie powiatów szamotulskiego, poznańskiego i sąsiednich. Tam bowiem mieszka najwięcej pracowników jednego z największych producentów AGD w Polsce.

Inicjatorem pomysłu jest Fundacja Amicis, czyli założona w 2005 roku niedochodowa, pozarządowa organizacja pożytku publicznego. Fundacja niesie pomoc nie tylko najbardziej potrzebującym, ale też dzieciom w formie mikołajkowych spotkań – doświadczyliśmy tego podczas ostatniego rozdania prezentów, np. w podszamotulskim Gałowie czy Drawskim Młynie. W rozmowie z przedstawicielami fundacji Amicis dowiadujemy się, że celem organizacji jest nie tylko niesienie pomocy tym, którzy jej najbardziej potrzebują (tj. dzieciom, ludziom starszym, schorowanym, samotnym i bezdomnym lub uzależnionym), ale też wsparcie placówek publicznych. Amica przekazuje takim miejscom jak szpitale czy domy opieki potrzebny do codziennego funkcjonowania sprzęt AGD.

Nasza kamera była niedawno w siedzibie firmy przy Bułgarskiej w Poznaniu, aby zobaczyć jak wygląda pakowanie takich paczek z bliska. Najbardziej potrzebujące rodziny otrzymają takie paczki już za kilka dni.

 

W ramach tegorocznych świąt Amica i fundacja Amicis zorganizowały CSR-ową akcję przekazywania prezentów do szkół i przedszkoli, ale także paczek żywnościowych dla potrzebujących rodzin i pacjentek oddziałów onkologicznych poznańskich szpitali. Co ważne, takie działania fundowane są nie tylko z portfela wronieckiej spółki, ale także z serca samych pracowników i ich uzbieranych, prywatnych środków.

Występy przedszkolaków z Gałowa (Powiat szamotulski) tuż przed rozdaniem prezentów przez fundację Amicis.

Zakupione zostały produkty suche z długą datą spożycia. Akcja prowadzona jest równolegle także w innych krajach grupy Amica International. W 2018 roku w ramach prowadzonych działań zbierania żywności dla najbiedniejszych przygotowano łącznie 1120 paczek:

– 315 paczek z prezentami gwiazdkowymi dla dzieci;

– 330 paczek z suchą żywnością i 300 z wędlinami dla rodzin potrzebujących wsparcia;

– 25 spersonalizowanych „Paczek Życzeń”;

– 150 paczek dla pacjentek oddziałów onkologicznych w poznańskich szpitalach.

Ponadto pozyskano dodatkowe środki na działalność poprzez internetowe aukcje przedmiotów przekazanych przez darczyńców.

 – Fundacja Amicis działa całorocznie. Nie jest to więc jedyna akcją, w którą się angażujemy. Budujemy np. place zabaw, zbieramy także żywność, meble czy odzież, które także trafiają do najbardziej potrzebujących rodzin. W ramach dodatkowych aktywności, zwłaszcza w okresie świąt, obdarowujemy dzieci w szkołach i przedszkolach. Wówczas w paczkach znajdują się nie produkty żywnościowe, ale zabawki, szaliki, czapki, piórniki itd. – komentowała dla portalu BiznesTuba.pl Maja Rutkowska z Grupy Amica.

Grudniowe popołudnie w showroomie marki Peka poświęcono nie tylko najnowszym trendom dostrzeżonym na Salone del Mobile, ale także nowym produktom, które pojawiły się właśnie na ekspozycji Peka w CH Panorama.

Peka już po raz kolejny zorganizowała tematyczne spotkanie szkoleniowe dla architektów i projektantów, chcących dowiedzieć się, jak będą wyglądały nowoczesne wnętrza w 2019 roku.

Gościem spotkania była tradycyjnie już Dagmara Jakubczak – blogerka i autorka bloga FORelements.pl oraz kanału YouTube Akademia Dagmary. Opowiedziała ona o najnowszych trendach zauważonych na jednych z najważniejszych targów wzorniczych na świecie – EuroCucina podczas Salone del Mobile w Mediolanie.

Nie zabrakło także prezentacji najnowszych rozwiązań marki Peka, o którą zadbały Anita Łopatka oraz Magdalena Tomkiewicz. Wśród nowości na polskim rynku zobaczymy niebawem bardzo ciekawe systemy firmy Oeko. Wśród nich choćby FreezyBoy, czyli innowacyjny system długoterminowego przechowywania odpadków organicznych. Dzięki wykorzystaniu ujemnej temperatury -5 °C, rozwiązanie zapobiega nieprzyjemnym zapachom oraz rozwojowi muszek „owocówek”. FreezyBoy pozwala na przechowywanie odpadków nawet przez kilka tygodni, zatrzymując tym samym proces ich rozkładu. Urządzenie może być używane samodzielnie lub zainstalowane jako kompletny system do sortowania odpadków Oekouniversal. Wyłącznym dystrybutorem tych produktów w Polsce jest firma Peka.

Zobacz też:

Włoski design, który porusza tłumy – galeria HEBAN i EDRA na Warsaw Home 2018

Dodatkowo przedstawicielki Peka opowiedziały także o innych, równie praktycznych rozwiązaniach dla kuchni i domu, takich jak Pecasa, Fioro czy Hawa.

Po prezentacji, każdy z uczestników otrzymał najnowsze wydanie Trend Raportu, w którym zaprezentowano panujące dziś trendy i mody, które zobaczymy na rynku wyposażenia wnętrz już w kolejnym sezonie.

Wysokie ceny prądu są zagrożeniem dla naszej gospodarki, a żeby uniknąć podwyżek w przyszłości, Polska potrzebuje systemowego planu transformacji energetycznej – tak wynika z opublikowanego 20 grudnia 2018 roku raportu Związku Przedsiębiorców i Pracodawców pt. „Ceny energii zagrażają konkurencyjności polskiej gospodarki”.

Od pewnego czasu serwisy informacyjne zostały niemal zdominowane przez doniesienia o rosnących cenach prądu. Obawy opinii publicznej są całkowicie zrozumiałe, ponieważ wyższe ceny energii stanowią problem zarówno dla gospodarstw domowych, jak i dla konkurencyjności polskich firm. W tej chwili trudno jest dokładnie oszacować skalę przyszłych podwyżek, które wynikają przede wszystkim ze wzrostu cen węgla i uprawnień do emisji CO2, jednak niewątpliwie rządzący mają do czynienia z poważnym strategicznym wyzwaniem, szczególnie w kontekście rosnącego zapotrzebowania na energię.

– Problem z polską energetyką jest dwupłaszczyznowy – twierdzi Cezary Kaźmierczak, Prezes Związku Przedsiębiorców i Pracodawców. – Po pierwsze, nasz miks energetyczny jest niedopasowany do polityki klimatycznej, której, cokolwiek byśmy nie robili, samodzielnie się nie przeciwstawimy. System sprzedaży uprawnień do emisji jest narzędziem służącym ograniczaniu roli węgla, tymczasem ok. 80 proc. wyprodukowanej przez nas energii elektrycznej wciąż pochodzi z tego surowca. Po drugie zaś, nasze węglowe jednostki wytwórcze są przestarzałe, co również przekłada się na wysoką emisyjność polskiej energetyki.

Eksperci ZPP podkreślają, że wzrost cen prądu to bezpośrednia konsekwencja silnego oparcia polskiej gospodarki na energii elektrycznej z węgla, w sytuacji, w której unijny system handlu uprawnieniami do emisji pogarsza opłacalność tego typu elektrowni. W związku z powyższym, w perspektywie strategicznej, potrzebny jest systemowy plan transformacji energetycznej, uwzględniający zastępowanie wysokoemisyjnych jednostek węglowych elektrowniami gazowymi, farmami wiatrowymi, jednostkami na biomasę i biogaz, czy fotowoltaniką.

W obliczu rosnących cen energii, kluczowe jest zatem długofalowe planowanie przekształcania polskiej energetyki z modelu opartego niemal całkowicie na energii pochodzącej z węgla, w kierunku miksu uwzględniającego w dużo większym stopniu odnawialne źródła energii i niskoemisyjne jednostki wytwórcze. Tymczasem, głównym pomysłem rządu na walkę z podwyżkami jest w tej chwili program rekompensat dla klientów indywidualnych i przedsiębiorców. Jak możemy przeczytać w raporcie, istnieje poważna obawa, że jego realizacja spowoduje jedynie przesunięcie w czasie skokowego wzrostu cen energii elektrycznej dla wszystkich odbiorców i „przejedzenie” środków, które mogłyby zostać przeznaczone na inwestycję w OZE.

– System rekompensat to rozwiązanie chwilowe, w dłuższej perspektywie pozbawione sensu, bo bez gruntownych zmian w strukturze polskiej energetyki, podwyżki cen i tak nas dosięgną – twierdzi Cezary Kaźmierczak. – W związku z powyższym, naszą rekomendacją krótkoterminową, „na teraz”, byłoby zredukowanie obciążeń warunkujących cenę energii elektrycznej, czyli np. obniżka akcyzy.

Autorzy raportu zaznaczają w podsumowaniu, że podwyżki cen energii mogą doprowadzić do wzrostu cen towarów i usług, a zatem i inflacji, w związku z czym przeciętny obywatel najdotkliwiej odczuje wzrost cen nie tylko regulując rachunek za prąd, ale także robiąc zakupy w sklepie. Mając na uwadze również fakt, że ceny prądu warunkują koszty funkcjonowania firm, a także stanowią istotny czynnik przy podejmowaniu decyzji o ulokowaniu w danym państwie inwestycji, poprawa stanu polskiej energetyki staje się jednym z kluczowych strategicznych wyzwań na najbliższe lata.

mat. prasowy

Rząd obiecuje egzekwowanie Konstytucji dla Biznesu i otwiera pierwsze oddziały Biura Rzecznika Małych i Średnich Przedsiębiorców. Te działania nie powinny dziwić, gdyż małych i mikrofirm jest w Polsce 1,94 mln i stanowią aż 96 proc. wszystkich przedsiębiorstw.

Do tego – jak pokazuje badanie SMEO i ERIF BIG – dla ponad połowy z nich prowadzenie firmy to ciągła walka z czasem lub nieuczciwymi kontrahentami.

W najnowszym badaniu “Bezpieczeństwo małych firm w Polsce” SMEO i ERIF BIG, wzięło udział ponad pół tysiąca polskich mikroprzedsiębiorców. Główny wniosek? Mali przedsiębiorcy  przyzwyczaili się do zaciągania długów. Chętnie pożyczają od znajomych oraz zaciągają różne formy kredytu.
– Raport pokazuje, że wyzwaniem jest oswojenie ich z bardziej zaawansowanymi i dopasowanymi do ich potrzeb metodami zabezpieczania gotówki dla firmy – mówi Michał Pawlik, prezes spółki SMEO – fintechu oferującego faktoring online. Jedna trzecia przedsiębiorców narzeka na niespłacane w terminie faktury. W ciągu ostatnich dwóch lat aż 63 proc. firm nie uzyskało należności za wykonaną usługę. W ogóle nie otrzymało jej 27 proc. respondentów, a w przypadku 36 proc. przedsiębiorstw klient zapłacił tylko część pieniędzy.

Ten sam (dobry) wzrost, te same (złe) nawyki

“Raport o stanie sektora małych i średnich przedsiębiorstw w Polsce” PARP-u podaje, że odsetek mikrofirm w strukturze wszystkich przedsiębiorstw wynosi ponad 96,2 proc. i systematycznie rośnie. Rośnie też udział przedsiębiorstw w tworzeniu PKB (z 71,1 proc. w 2008 roku do 74 proc. w 2015), w czym swój największy udział mają właśnie mikroprzedsiębiorstwa (30,5 proc.). – Charakteryzuje je niestety niska przeżywalność. Po pierwszym roku działalności znika średnio co trzecia z nich. Także w kolejnych latach ich sytuacja finansowa pozostaje relatywnie trudna – mówi Pawlik.
Mimo to 64 proc. właścicieli małych firm – jak wynika z badania SMEO – decyduje się zarządzać finansami na własną rękę. Co trzeci przedsiębiorca decyduje się na zewnętrzną firmę księgową, mniej niż co dziesiąty zatrudnia lub deleguje do tego pracownika.
Badanie SMEO_Kto dba o finanse.png

Kryzys? Nie zapłacą dostawcom lub wezmą kredyt

Problemem polskich mikroprzedsiębiorstw jest niska świadomość, w jaki sposób profesjonalnie zarządzać finansami. W obliczu trudności finansowych właściciele najczęściej sięgają po prywatne środki na ratowanie firmy. Postępuje tak aż 34 proc. przebadanych. Kolejnych 20 proc. przyznaje, że pieniądze pożycza od znajomych. Co piąta firma popadająca w kłopoty opóźnia płatności wobec dostawców, czyli robi dokładnie to samo, czego sama doświadcza. Tyle samo decyduje się zaciągnąć kredyt. Inne metody stabilizowania i zabezpieczania finansów – takie, jak faktoring, usługi prawników lub windykatorów – stosowane są przynajmniej dwukrotnie rzadziej.
Badanie SMEO_Problemy finansowe.png
Ale zamiast reagować na kryzysy, można by im przeciwdziałać. Polskie firmy tego nie robią. Przykład? Co czwarta nie sprawdza przed rozpoczęciem współpracy, czy ich nowy kontrahent w ogóle istnieje.

Jaki będzie 2019 rok?

Trwają prace nad organizacją pracy Biura Rzecznika MŚP. Przedsiębiorcy z czterech pierwszych województw (małopolskiego, podkarpackiego, śląskiego i świętokrzyskiego) mają możliwość skorzystać z pomocy prawnej w Krakowie, a w środę (19 grudnia) otwarto warszawską placówkę. Biuro chwali się interwencją w sprawie głośnej prowokacji urzędniczek skarbówki z Bartoszyc, w której dwie pracownice urzędu wymieniły u mechanika żarówkę za 10 zł, po czym nałożyły wysoką karę za niewystawienie paragonu. O tym, czy mikroprzedsiębiorstwa faktycznie skorzystają na działalności Biura, przekonamy się wkrótce.
W grudniu podpisany został przez Prezydenta RP tzw. “Pakiet MŚP”, likwidujący obowiązek okresowych szkoleń BHP dla blisko 6 mln pracowników administracyjno-biurowych czy umożliwiający wliczanie pracę małżonka w koszty uzyskania przychodu. Część specjalistów zwraca jednak uwagę na to, że większość proponowanych działań w większym stopniu wpływa na działalność średnich firm, a nie tych mikro – zatrudniających mniej niż 9 osób, a bardzo często niezatrudniających nikogo.

„Jesteśmy przekonani, że wszelkiego rodzaju nowe instrumenty prawne, w które wyposażeni będą polscy przedsiębiorcy czy nowe instytucje wspierające przedsiębiorców, są potrzebne. Jednakże do skutecznej walki z pojawiającymi się problemami finansowymi potrzebne są szersze zmiany systemowe. Dobry kierunek wyznacza w tym zakresie Ministerstwo Przedsiębiorczości i Technologii, które aktualnie konsultuje projekt o zmianie niektórych ustaw w celu ograniczenia zatorów płatniczych. To pakiet zmian w kilku regulacjach (m.in. w ustawie o terminach zapłaty w transakcjach handlowych czy szeregu ustaw podatkowych), które zmierzają do przeciwdziałania zjawisku zatorów płatniczych. Ważnym przy tym jest, aby projektodawcy wsłuchiwali się w głos przedsiębiorców. Ci najlepiej wiedzą, jakie instrumenty są im niezbędne, aby walka z problemami płynności finansowej była skuteczna. Stąd jako KPF systematycznie zbieramy takie postulaty od naszych firm członkowskich, które następnie przekazujemy projektodawcom dla celów merytorycznej dyskusji nad kształtem przyszłych regulacji w tym obszarze”

– mówi Marcin Czugan, wiceprezes Zarządu Konferencji Przedsiębiorstw Finansowych w Polsce.

Odpowiedzialność spoczywa też na instytucjach finansowych.

„Rosnąca liczba mikrofirm, ich potencjał rozwoju oraz niezagospodarowane potrzeby powinny skłonić sektor nowoczesnych usług finansowych do podjęcia intensywniejszych wysiłków mających na celu dostosowanie produktów finansowych do oczekiwań tej niezwykle różnorodnej i ważnej grupy przedsiębiorców. Jako nowoczesny faktor oferujemy wszystkie nasze działania przez internet, z maksymalnie uproszczonymi zasadami i brakiem biurokracji. Otworzyliśmy właśnie możliwość finansowania faktur dla startupów – czyli wszystkich przedsiębiorstw od pierwszego dnia ich powstania”

– mówi Michał Pawlik, prezes SMEO.

Pełny raport można pobrać tutaj. Badanie “Bezpieczeństwo finansowe małych firm w Polsce” zostało przeprowadzone w sierpniu 2018 roku z zastosowaniem metody CAWI (Computer-Assisted Web Interview). Zrealizowano łącznie 527 wywiadów z właścicielami lub współwłaścicielami mikrofirm zarejestrowanych na terenie Polski. W ankietach pytano o sytuację finansową firmy w ciągu ostatnich dwóch lat działalności.

Konfederacja Lewiatan przygotowała raport, który prezentuje co nas czeka w polityce międzynarodowej, jak interpretować wskaźniki ekonomiczne oraz na jakie zmiany prawa firmy powinny się przygotować. Wnioski są bardzo przejrzyste: kolejne sygnały zapowiadają spowolnienie, a setki nowych przepisów dodatkowo utrudnią prowadzenie biznesu.

Jak czytamy w raporcie, po latach wzrostu gospodarczego, w 2019 roku świat czeka spowolnienie. Bank Światowy prognozuje, że wśród gospodarek rozwiniętych wzrost PKB wyniesie 2,2% w roku 2018 i już tylko 2% w roku 2019. Dość przypomnieć, że w roku 2016 było to 2,9%! Polska gospodarka również zwolni. Będzie wciąż miała wyższą stopę wzrostu PKB niż kraje tzw. starej Unii, jednak powiązanie polskiej wymiany handlowej z Europą powoduje, że schłodzenie jej gospodarki błyskawicznie przełoży się na naszą. Według Banku Światowego dynamika wzrostu PKB Polski wyniesie w 2018 roku 4,7%, ale w 2019 już 3,9%. To najlepiej pokazuje, jak mocno jesteśmy zależni od europejskiej i światowej  koniunktury.

Unia musi odnaleźć się w niespokojnym świecie
Konfederacja Lewiatan informuje w raporcie także, że przed europejską gospodarką pojawia się strategiczne pytanie: jak odnaleźć się w nowym, światowym porządku gospodarczym? Względna stabilność gospodarcza i pokój w Europie nie wystarczą, by Unia zyskała bezpieczną pozycję w globalnym nieładzie. W raporcie czytamy, że nieprzewidywalność światowej sytuacji gospodarczej i politycznej wzmaga specyficzny sposób prowadzenia polityki zagranicznej przez administrację Donalda Trumpa. Oto Unia Europejska straciła najważniejszego od ponad pół wieku partnera i sojusznika politycznego na światowej arenie – Stany Zjednoczone, które dziś wskazują Europę jako zagrożenie dla amerykańskiej gospodarki i stawiają w jednym rzędzie z Chinami.
A Chiny umacniają swoją pozycję we wszystkich rankingach. Jeszcze w 2007  roku, czyli niedługo po polskiej akcesji do Unii Europejskiej, odpowiadała ona  za 20,85% światowego PKB, za nią były USA (18,3%) i Chiny (11,27%). W ubiegłym roku, dane wyglądały diametralnie inaczej – liderem zostały Chiny  z 18,11% światowego PKB, dalej uplasowały się UE (16,46%) i USA (15,56%). Co więcej, wśród społeczeństw europejskich, ale także wśród elit politycznych, pokutuje przekonanie, że chińska gospodarka to podwykonawca światowej produkcji. W rzeczywistości jest to gospodarka coraz bardziej innowacyjna. Dane prezentowane przez WIPO – Światową Organizację Własności Intelektualnej, działającą w ramach ONZ, nie pozostawiają wątpliwości – wśród firm najwięcej wniosków o międzynarodową ochronę patentową PCT złożyły w 2017 roku przedsiębiorstwa z państwa środka (Huawei i ZTE). Dopiero za nimi lokują się technologiczni potentaci z tradycjami, czyli Intel i Mitsubishi Electronics. Wśród państw na szczycie nadal są Stany Zjednoczone, ale depczą im po piętach Chiny, które w ciągu jednego roku zanotowały wzrost liczby podań o międzynarodową ochronę patentową o 13,7% (porównanie 2017 r. do 2016 r.).

Brexit odciśnie piętno na światowym handlu
Konderacja Lewiatan podnosi, że zagrożenia dla Unii Europejskiej przychodzą nie tylko z zewnątrz, ale również z wewnątrz Wspólnoty. Wielka Brytania – państwo obecne w Unii od ponad 40 lat – wystąpi z niej w marcu 2019 roku. Do 2021 roku powinien obowiązywać okres przejściowy, ale już teraz przedsiębiorcy muszą przygotować się na podwyższenie kosztów wymiany handlowej z Wielką Brytanią, na co wpłyną cła, reorganizacja łańcuchów dostaw oraz podniesione koszty transportu towarów i logistyki.

W rapocie czytamy też, że Brexit przełoży się dramatycznie na europejską i światową wymianę handlową, ale również spowoduje zmiany w unijnym budżecie. Musimy przygotować się na mniejsze niż w poprzedniej perspektywie środki z funduszu spójności. Ich brak szczególnie odczują kraje takie jak Polska, która realizuje z funduszy europejskich ogromne inwestycje. Strefa euro zmierzy się z włoskimi populistami. Europejska gospodarka staje także przed ryzykiem utraty wiarygodności strefy euro na rynkach finansowych. Może być to efekt konfliktu pomiędzy Brukselą a rządem w Rzymie, skupionego wokół dyscypliny budżetowej włoskich finansów. Włoska koalicja prawicowych i lewicowych populistów pokazuje, że partie tego typu ani myślą o realizacji deklarowanych założeń programowych, a kierują się jedynie potrzebą władzy. Trudno jest budować z nimi dialog oparty na racjonalnych ekonomicznych argumentach. Dodatkowo, populistów  europejskich, z prawa i lewa, łączy gra na konflikt z Brukselą, której używają  do antagonizowania społeczeństw. Europejska gospodarka staje także przed trudnym dylematem pogodzenia efektywności i kosztów produkcji z celami klimatycznymi. Z doświadczenia wiemy, że europejscy przedsiębiorcy ze zrozumieniem podchodzą do kwestii ograniczenia emisji gazów cieplarnianych, recyklingu odpadów i opakowań czy potrzeby ekologicznego transportu. Nie możemy jednak pozwolić na przytłoczenie europejskiego biznesu nowymi obciążeniami w sytuacji, kiedy inni światowi gracze, tacy jak USA i Chiny, nie nałożą na swoje firmy takich restrykcji. Pojawiają się wciąż nowe wyzwania. Dziś mówimy o przemyśle 4.0, ale już przed nami przemysł 5.0, zasadniczo zmieniający modele biznesowe i myślenie o przyszłości. Sztuczna inteligencja jest ogromnym, ale w znacznej mierze nieprzewidywalnym oceanem możliwości. To wymaga innej edukacji, innego rynku pracy i przejścia na dzielenie się wartością dodaną. W obliczu nowych wyzwań, do załatwienia pozostają wciąż zadania, o których mówi się w Europie od dawna. Jasne staje się, że musimy zbudować własny system obronny, a to kosztuje, choć bywa też źródłem innowacji i rozwoju. Mamy też nierozwiązaną kwestię Ukrainy czy rozszerzenia Unii o zachodnie Bałkany. Szczęśliwie szczyt kryzysu migracyjnego wydaje się być już za nami. Przez ostatnie kilka lat służył on niektórym środowiskom do podgrzewania obaw społecznych. Napływ migrantów zmniejszył się, a Unia wdrożyła rozwiązania, pomagające uporać się z najpilniejszymi wyzwaniami w tym zakresie.

Kampanie wyborcze zwiększą ryzyko niepewności
Według Konfederacji, rok 2019 będzie trudny dla gospodarki z jeszcze jednego powodu. Czeka nas wiosną wybory do Parlamentu Europejskiego, a jesienią do polskiego parlamentu. Według Henryki Bochniarz, prezydenta  Konfederacji Lewiatan, proces tworzenia rządu w Polsce nie wpłynie na stabilizację nastrojów, ale ukonstytuowanie się nowej Komisji Europejskiej może po majowych wyborach ciągnąć się aż do końca 2019 roku. Będzie to źródło kolejnych niewiadomych. Z doświadczenia wiemy, że kampanie wyborcze to nie najlepszy czas na podejmowanie racjonalnych, trudnych decyzji. To raczej okazja do spełniania różnych kosztownych obietnic. Oby znowu nie musieli za nie płacić europejscy i polscy przedsiębiorcy. Ale jeśli nie oni – to kto?

 

Henryka Bochniarz,
prezydent Konfederacji Lewiatan

 

 

 

We wtorek 18 grudnia Parlament Europejskim, Komisja Europejska i Rada UE osiągnęły porozumienie w sprawie stworzenia unijnego rynku prądu elektrycznego. O konsekwencjach nowych regulacji dla polskiego sektora energetycznego oraz dla konsumentów mówił dziś w Biurze Parlamentu Europejskiego w Warszawie przewodniczący Komisji Energii Przemysłu, Badań Naukowych i Energii (ITRE) PE Jerzy Buzek.

Rozporządzenie i dyrektywa o budowie europejskiego rynku prądu elektrycznego znoszą bariery ponadnarodowym handlu prądem i wspierają budowanie połączeń energetycznych pomiędzy państwami UE. Nowe regulacje zapewnią większą konkurencyjność na rynku energii, a co za tym idzie również niższe ceny dla konsumentów. Będą też wspierać bezpieczeństwo dostaw i zapobiegać przerwom w dostawach prądu. – Musimy mieć zapewnione dostawy prądu w każdych warunkach – powiedział prof. Jerzy Buzek, komentując główne cele rozporządzenia i dyrektywy.

Regulacje wprowadzają też ograniczenia w rynku rezerw mocy. Państwa płacą elektrowniom za gotowość do uruchomienia mocy (stand-by) w przypadku czasowych przerw w dostawach prądu z innych źródeł. Zgodnie z nową regulacją, takich dotacji nie będzie można udzielać elektrowniom, które emitują więcej niż 550 gram dwutlenku węgla na kilowatogodzinę. Oznacza to wykluczenie z rynku rezerw mocy elektrowni węglowych. Jak jednak wytłumaczył prof. Buzek, do końca roku 2019 państwa członkowskiego mogą jeszcze przeprowadzać aukcje i zawierać kontrakty z dostawcami elektryczności bez ograniczenia 550 gr CO2/kWh na tak długo, jak zostanie ustalone to w kontraktach. – To ważne ustalenie dla Polski, gdzie około 80% prądu nadal wytwarzane jest w oparciu o węgiel – podkreślił przewodniczący Komisji ITRE.

Prof. Buzek odniósł się także do aktualnego stanu prac nad dyrektywą gazową. – Mamy w Komisji ITRE pełne przekonanie, że dyrektywa gazowa powinna wejść w życie. Jest do tego przekonana również rumuńska prezydencja UE oraz Komisja Europejska. Dyskusja toczy się w Radzie – zapewnił. Dyrektywa nie blokuje budowy gazociągu Nord Stream 2, wprowadza natomiast jednolite przepisy na terenie całej Unii, które zmniejszyłyby rentowność gazociągu. – Liczę na to, że porozumienie dotyczące dyrektywy gazowej zostanie osiągnięte już w styczniu. – podsumował były premier.

Za nami kolejne posiedzenie FOMC, z którego każdy wyciąga takie wnioski, jakie mu bardziej pasują. Gołębia podwyżka była tym, czego inwestorzy oczekiwali od Fed, choć ukrycie liczyli na coś więcej. Częściowe rozczarowanie przynosi kontynuację spadków na giełdach i podtrzymanie obaw o spowolnienie globalnego ożywienia. Rynek walutowy jest w rozkroku.

Fed miał dostarczyć gołębią podwyżkę i to zrobił. Cel dla stopy rezerw federalnych został podniesiony o 25 pb do 2,25-2,50 proc., a z technicznych powodów stopa rezerw obowiązkowych w zrosła tylko o 20 pb. W projekcji członków FOMC na kolejne lata usunięto jedną podwyżkę z 2019 r. (teraz Fed zakłada tylko dwie), jeszcze jedną w 2020 r. i bez zmian w 2021 r. Komunikat i konferencja prasowa były zbliżone do oczekiwań rynkowych dotyczących złagodzenia przekazu, choć nie dały jasnego wskazania, że Fed jest bliżej przerwania cyklu podwyżek. Innymi słowy nie da się całkowicie wykluczyć następnej podwyżki w marcu, nawet jeśli prezes Powell uwarunkował kontynuację zacieśniania od realizacji optymistycznych prognoz gospodarczych. W przekazie nie brakowało gołębich wzmianek. Fed uważa, że potrzeba tylko „nieco” dalszego stopniowego podnoszenia stóp procentowych, a ryzyka dla perspektyw gospodarczych przestały być, a tylko wydają się „z grubsza zrównoważone”. Zmiany w komunikacie pokazują, że część członków FOMC poważniej obawia się skutków ostatnich wydarzeń na świecie i na rynkach i jest gotowa już teraz nieco przyhamować z cyklem zacieśniania. Nie są oni jednak w większości. Innym gołębim punktem było też obniżenie mediany prognozy długoterminowej stopy neutralnej do 2,75 proc. z 3 proc. oraz przyznanie przez Powella, że stopy procentowe są teraz mniej więcej na pułapie zbieżnym z dolnym zakresem szacunków stopy neutralnej.

Zobacz też:

Zarobki w branży IT wciąż rosną. Nawet młodzi programiści mogą liczyć na coraz wyższe pensje

Tragizm rynków polega na tym, że choć inwestorzy otrzymali od Fed to, co zakładali, to jednak ukrycie liczyli na coś więcej po stronie „gołębiości”. Fed miał być lekarstwem na poprawie nastrojów rynkowych i poprzez ogłoszenie końca cyklu podwyżek (lub silnego złagodzenia komunikatu w inny sposób) dać impuls do rajdu apetytu na ryzyko i stworzenia iluzji, że polityka monetarna nie zdławi ożywienia. Optymizm Fed dotyczący sytuacji w gospodarce został odebrany jako ignorancja, która przynosi pogłębienie spadków na rynku akcji. Rentowności obligacji skarbowych USA spadają, bo rynek dalej upiera się przy swoim – według niego Fed nie będzie w stanie przeprowadzić jeszcze trzech podwyżek, a raczej może jedną. Na rynku walutowym inwestorzy nie wiedzą, czy kochać dolara, czy nim gardzić i w końcowym rozrachunku przeważa porządkowanie pozycji przed świąteczną przerwą.

Osobiście uważam, że wczorajsza reakcja na przekaz Fed jest dowodem odklejenia się inwestorów od fundamentalnej oceny gospodarki. Niepewność wokół potencjalnych czynników ryzyka potęguje obawy o spowolnienie gospodarcze, co też prowadzi do wyolbrzymiania niektórych sygnałów. Niebezpieczne jest to, że przy podtrzymywanym pesymizmie rynkowym niepewność inwestorów może przerodzić się w niepewność konsumentów i przedsiębiorców, w efekcie czego spowolnienie gospodarcze pogłębi się. Wówczas inwestorzy stwierdzą, że od początku mieli rację, nie widząc tego, że byli sprawcami.

Festiwal banków centralnych G10 nie kończy się na Fed. W nocy bez echa przeszła decyzja Banku Japonii – bank utrzymał parametry polityki bez zmian, tak jak i treść komunikatu. Bank Anglii przed dzisiejszą decyzją ma sporo do przedyskutowania, ale potęgowana niepewność nie przełoży się na konstruktywny komunikat. GBP pozostaje słaby z perspektywą nagłych skoków pod wpływem politycznych nagłówków. Szwedzki Riksbank do ostatniej chwili podtrzymywał oczekiwania, że podwyżka stóp procentowych może wystąpić w grudniu, albo w lutym przyszłego roku. Ale po rozczarowującym odczycie inflacji CPI w ubiegłym tygodniu, Riksbank ma solidny argument, by zwlekać. Rynek jednak agresywnie podtrzymuje wycenę na 50 proc., zatem przy każdej decyzji ktoś będzie zaskoczony, a SEK nie będzie stał w miejscu.

Konrad Białas
Dom Maklerski TMS Brokers S.A.

Polska konsekwentnie zmniejsza dystans dzielący nas od najbogatszych państw Unii Europejskiej, wynika z dorocznego raportu Warsaw Enterprise Institute. Jeżeli chcemy żeby nasze dzieci i wnuki w 2050 żyły na równym poziomie co najbogatsze narody Europy to musimy mocno przyspieszyć. Średnia europejska jest już dziś w zasięgu ręki, ale żeby przekroczyć ją w roku 2030 nie wystarczy trwać.

WEI od czterech lat opracowuje specjalny indeks „Bilans Otwarcia”, który ma w sposób możliwie obiektywny mierzyć różnicę dobrobytu między bogatymi państwami Europy Zachodniej i Polski. W tym roku po raz pierwszy raport uwzględnia nie tylko Niemcy, ale wszystkie państwa Unii Europejskiej. Polska przesunęła się bliżej Niemiec o 1,5 p. proc. PKB PPP per capita, ale w ogólnoeuropejskim rankingu zajmujemy odległe 21. miejsce.

Tak jak w poprzednich edycjach raportu, także i tym razem badaliśmy trzy parametry – trzy największe wyzwania, przed którymi stoi nasza gospodarka.

  • Tempo w jakim polski dochód narodowy na głowę (PKB PPP) zbliża się do najwyżej rozwiniętych państw w Europie.
  • Prawdopodobieństwo kryzysu wynikające z niekontrolowanego zadłużenia państwa.
  • Atrakcyjność Polski do życia licząc zarówno osoby emigrujące jak i tych, którzy w Polsce chcą się osiedlać.

Zobacz też:

Koniec nadwyżki w handlu zagranicznym

Pod względem PKB PPP per capita Polska sukcesywnie goni Niemcy. W ostatnim roku Polska nadrobiła około 1,5 p. proc., jednak nasz wynik to wciąż niecałe 57% poziomu niemieckiego. Niestety obecne tempo rozwoju w dalszym ciągu plasuje nas dopiero na 21. miejscu europejskiego rankingu gospodarek. Dużo bliżej nam do dwóch innych europejskich potentatów. W stosunku do Francji i Wielkiej Brytanii polskie PKB PPP per capita osiągnęło poziom 66%, a w minionym roku poprawiliśmy nasz wynik kolejno o około 1,5 p. proc. oraz 3 p. proc.

Takim krajom, jak Polska, Węgry czy Łotwa osiągnięcie poziomu PKB PPP per capita Francji czy Wielkiej Brytanii zajmie 15-20 lat. Następne pokolenia Polaków powinny już żyć na podobnym poziomie, co Francuzi czy Brytyjczycy. Doganianie Niemiec zajmie znacznie więcej czasu, około 40-45 lat, przy zachowaniu obecnej dynamiki rozwoju Polski.

Ryzyko kryzysu niewypłacalności zostało policzone jako zsumowanie publicznego i prywatnego zadłużenia poszczególnych państw Unii Europejskiej w relacji do rozmiaru gospodarki mierzonej PKB. Wśród najbardziej zadłużonych państw Unii Europejskiej w 2017 roku znajdują się Cypr (412 proc.), Luksemburg (345 proc.) oraz Irlandia (312 proc.). Z kolei najmniej zadłużone państwa to Czechy (102 proc.), Litwa (95 proc.) oraz Rumunia (85 proc.). Polska jest w grupie najmniej zadłużonych państw Europy (126 proc.), zajmując 7. miejsce w rankingu i wyprzedzając m.in. Niemcy. Analizując dane rok do roku, Polska w 2017 r. poprawiła (zmniejszyła) wskaźnik zadłużenia o blisko 9 p. proc.

W raporcie WEI jakość życia w danym państwie mierzymy wskaźnikiem migracji. Nic lepiej tego nie oddaje jak indywidualne decyzje Europejczyków, którzy mogą sami decydować gdzie chcą żyć. Kraje których nie chcemy opuszczać, ewentualnie te do których chcemy wyjeżdżać, uznajemy za najbardziej atrakcyjne w Europie.

Raport WEI pokazuje, że wędrówka ludów Europy trwa. Przybywa chętnych do zmiany miejsca zamieszkania. Zaledwie dwa państwa mogą się poszczycić malejąca liczbą wyjazdów, to Dania i Finlandia. Reszta Europy przemieszcza się na potęgę. We wszystkich najbogatszych państwach przybywa imigrantów z Europy. Nawet w Wielkiej Brytanii, już po decyzji o Brexicie.

W Polsce skala wyjazdów zwiększyła się w stosunku do 2016 roku (do Wielkiej Brytanii o 9,36 proc., do Niemiec o 3,15 proc., do Holandii – o 9,52 proc.). W stosunku do 2016 roku, Polskę opuściło dodatkowe 255 tys. obywateli. Łącznie już ponad 6,5 proc. obywateli Polski mieszka obecnie w innym kraju UE.

Mat. prasowy

Roman Przasnyski, główny analityk Gerda Broker przytoczył najciekawsze dane i liczby, które osiągnęły rekordowe poziomy w 2018 r. Wśród nich choćby 1,5-procentowa stopa NBP, 1-3-procentowa inflacja czy 5,7-procentowa, najniższa stopa bezrobocia.

1,3 proc.

Tyle wyniosła inflacja w listopadzie. Równie niska była w marcu, a poprzednio niższa była w grudniu 2016 r. W 2017 r. najniższy wzrost inflacji miał miejsce w czerwcu, gdy wyniósł 1,5 proc.

1,5 proc.

Podstawowa stopa procentowa NBP utrzymuje się na rekordowo niskim poziomie już od marca 2015 r. i wszystko wskazuje na to, że nie ulegnie ona zmianie jeszcze przez co najmniej kilkanaście miesięcy. Rada Polityki Pieniężnej nie zdecyduje się na jej podwyżkę w warunkach niemal pewnego spowolnienia tempa wzrostu gospodarczego, nawet jeśli inflacja miałaby znacząco pójść w górę.

1,5 proc.

Tyle wynosi średnie oprocentowanie lokat bankowych o terminie do dwóch lat. Nie zmienia się ono od października 2017 r. i raczej nie ulegnie zmianie, dopóki Rada Polityki Pieniężnej nie podniesie stóp procentowych.

794 mld zł

Tyle pieniędzy trzymały gospodarstwa domowe na rachunkach i lokatach w bankach na koniec października. To o 66 mld zł więcej niż rok wcześniej, co oznacza wzrost o 9 proc. Wartość środków na rachunkach bieżących wyniosła 501,5 mld zł i była wyższa niż w październiku 2017 r. o prawie 68 mld zł, czyli o ponad 15 proc. Na lokatach terminowych Polacy trzymali nieco ponad 292 mld zł, co oznacza spadek w porównaniu do października 2017 r. o 2,1 mld zł., czyli o 7 proc.

11,6 mld zł

Taką kwotę wydali do listopada nabywcy detaliczni na obligacje skarbowe. To wartość najwyższa w historii sprzedaży tego typu papierów. Większość rodzajów obligacji zapewnia odsetki wyższe niż lokaty bankowe, za wyjątkiem papierów trzymiesięcznych, których oprocentowanie wynosi 1,5 proc., czyli tyle samo, co przeciętnie oferują banki.

5,7 proc.

Najniższą stopę bezrobocia w historii zanotowano we wrześniu i październiku. W październiku liczba zarejestrowanych bezrobotnych wyniosła 937,3 tys. i była niższa niż rok wcześniej o 132,2 tys. Poniżej miliona zeszła już w czerwcu 2018 r.

4921,39 zł

Tyle wynosiło w październiku średnie wynagrodzenie brutto w sektorze przedsiębiorstw (zatrudniających powyżej 9 pracowników), co oznacza wzrost o 7,6 proc. w porównaniu z październikiem 2017 r. Wyższe było jedynie w grudniu ubiegłego roku, gdy wyniosło 4973,73 zł., ale wynik grudniowy zwykle podbijają wypłaty rocznych nagród i premii. Podobnie powinno być i w tym roku. W 2018 r. najmocniej, bo o 7,8 proc. średnie wynagrodzenie w firmach wzrosło w kwietniu. W 2019 r. dynamika średniej płacy powinna utrzymać się na wysokim poziomie, sięgającym 6-7 proc.

2247,67 zł

Tyle w październiku wynosiła średnia emerytura i renta brutto. To rekordowo wysoki poziom, ale tylko o 3,5 proc. wyższy niż przed rokiem, a w dodatku stanowił jedynie nieco ponad 45 proc. średniego wynagrodzenia w firmach. Ta relacja, zwana stopą zastąpienia, w przyszłości będzie się zdecydowanie pogarszać.

10,3 proc.

O tyle wzrosła produkcja przemysłowa w lipcu. Mocniej rosła w marcu i w październiku ubiegłego roku (odpowiednio o 11 i 12,3 proc.), a wcześniej wyższą dynamikę osiągała na przełomie lat 2010-2011.

16 593

To najwyższa, osiągnięta w sierpniu, liczba mieszkań oddanych do użytku. Pod tym względem rynek mieszkaniowy nieco wyhamował. W lipcu ubiegłego roku oddano do użytku 17 344 mieszkania, a w grudniu 18 570.

5,3 proc.

O tle wzrósł PKB w pierwszym kwartale. Nieznacznie wyższy wzrost (5,4 proc.) ostatnio zanotowano jedynie w trzecim kwartale 2017 r., a wcześniej w pierwszych miesiącach 2008 r. (5,8 proc.). Wbrew obawom, w 2018 r. nie doszło do spowolnienia w gospodarce, która rosła w drugim i trzecim kwartale o 5,1 proc. W 2019 r. tempo wzrostu będzie jednak już słabsze.

Zobacz też:

Prognozy na 2019 rok – w gospodarce osłabienie, nerwowo na rynkach

5,3 proc.

O tyle zwiększyło się spożycie gospodarstw domowych w pierwszym kwartale. Poprzednio mocniejszy wzrost notowano u szczytu poprzedniego cyklu koniunktury w 2008 r., gdy dynamika konsumpcji sięgała 5,8-6,8 proc.

9,9 proc.

O tyle wyższe niż przed rokiem były w trzecim kwartale nakłady brutto na środki trwałe. Wcześniej dynamika wydatków na inwestycje była wyższa w pierwszych miesiącach 2014 r., gdy wyniosła 12 proc. Rosną głównie inwestycje publiczne, zaś w przypadku firm prywatnych wciąż mamy do czynienia ze słabą dynamiką.

3,32 zł

To najniższy, osiągnięty w lutym, kurs dolara. W kolejnych miesiącach amerykańska waluta mocno podrożała. Najwięcej, prawie 3,84 zł, a więc o ponad 15 proc. drożej, trzeba było za nią płacić pod koniec października. To efekt podwyżek stóp procentowych w Stanach Zjednoczonych oraz licznych napięć na światowym rynku finansowym. W połowie grudnia dolar potaniał do niespełna 3,8 zł.

4,14 zł

To najniższy, osiągnięty w lutym kurs euro. Wspólna waluta najdroższa była na początku lipca, gdy trzeba było za nią płacić prawie 4,4 zł. (wzrost o ponad 6 proc.). Pod koniec roku potaniała do 4,29 zł.

2630 punktów

To najwyższa w 2018 r., osiągnięta pod koniec stycznia, wartość indeksu największych spółek, notowanych na warszawskiej giełdzie. Kolejne miesiące przyniosły spore spadki notowań. W połowie grudnia WIG20 wynosił niewiele ponad 2300 punktów, był więc o 12,5 proc. niżej niż w styczniu. Najmocniej, o prawie 21 proc., zniżkował pod koniec października. Jeszcze gorzej radziły sobie indeksy średnich i małych spółek, tracąc od końca stycznia do połowy grudnia odpowiednio prawie 20 i 28 proc.

Źródło: http://gerdabroker.pl/

Na wzrost cen energii elektrycznej w Polsce wpływają najbardziej dwa czynniki. Pierwszym jest brak spójnej polityki energetycznej, która bardzo długo nie była aktualizowana.

Wszelkie działania podejmowane w tym zakresie są chaotyczne, a nie spójne i długoterminowe. Oprócz tego chodzi o wzrost cen prawa do emisji CO2, co zwiększa koszt wytworzenia energii w konwencjonalnych blokach węglowych. W zakresie energetyki cały świat podąża w stronę określonych rozwiązań. Polska – zmierzając w przeciwnym kierunku – będzie na tym tracić, a jej możliwości kiedyś się wyczerpią. Obecnie jesteśmy tego świadkami. Wzrost cen energii elektrycznej w Polsce jest największym wzrostem w całej Europie.

Zobacz też:

W drodze do czystej energii czy zero emisji – zero technologii

Wszystkie kraje wybierają i dofinansowują odnawialne źródła energii, albo starają się chociaż ograniczać konwencjonalne paliwa kopalniane. Zarządzają miksem energetycznym w bardziej racjonalny i odpowiedzialny sposób przez stanowienie stabilnego prawa. Konieczne są negocjacje z krajami sąsiednimi – gdzie energia elektryczna jest tańsza.Potrzebne jest też wsparcie rodzimych przedsiębiorców, którzy w przypadku rozproszonej energetyki są w stanie niwelować negatywne skutki rosnących cen.

 

– Tak, jak w przypadku drożenia paliwa, wzrost cen energii elektrycznej oznacza dla konsumenta wyższe ceny wszystkich towarów i usług. Powstrzymanie wzrostu cen energii wymaga zastanowienia się nad dwiema możliwościami – powiedział serwisowi eNewsroom Maciej Musiał, prezes Pracowni Finansowej. – Pierwszą jest import z krajów, gdzie jest ona tańsza. Przykładem są nasi wschodni sąsiedzi. Ukraina wytwarza energię za pomocą elektrowni atomowych. Nadal nie przesyła jej do Polski, co mogłoby okazać się dla nas dobrym rozwiązaniem – zwłaszcza w trudnych momentach, gdy zdarzają się blackouty czy przymusowe wyłączenia dużych zakładów produkcyjnych. Odpowiednie umowy bilansujące umożliwiłyby posiłkowanie się energią zza granicy. Inny sposobem na zatrzymanie wzrostu cen lub ich obniżenie jest inwestowanie w najtańsze i najbardziej opłacalne źródła. Chodzi o energetykę wiatrową – zwłaszcza lądową, w której Polska posiada największe doświadczenie i know-how. W tym sektorze u rodzimych przedsiębiorców zostaje też najwięcej pieniędzy. Cały biznes związany z potrzebną infrastrukturą wymaga kompetencji, które w Polsce występują. Do budowy zatrudniane są firmy lokalne, tak samo jak przy zamawianiu części. W ten sposób znaczna część kapitału zostaje w kraju. W przypadku inwestycji w energetykę morską zostalibyśmy go pozbawieni, co ostatecznie zwiększyłoby cenę samych projektów. W konsekwencji znowu nastąpiłby wzrost cen energii, który musiałby zamortyzować nakłady inwestycyjne. Dodatkowo należy pamiętać o mikroinstalacjach na gospodarstwach domowych. Panele fotowoltaiczne są w stanie wyprodukować energię na potrzeby domu. Przez odpowiedni miks i politykę energetyczną Polska może utrzymać w ryzach ceny energii. Najdroższy prąd w Europie, którego doświadczymy już od 2019 roku, jest spowodowany trzymaniem się jednej, określonej drogi – bez patrzenia na otoczenie rynkowe – ocenił Musiał.

Źródło: enewsroom.pl

Wydawnictwo Infor.pl zaprasza na bezpłatne webinarium dotyczące tego, jak pokonać stres. Wiedząc, że jeśli długotrwały, negatywny stres wyniszcza nas organizm, warto nauczyć się niwelować jego skutki. O tym będzie mówić Urszula Rzeczko, certyfikowany coach MLC.

Podczas webinaru uczestnicy dowiedzą się, że silne napięcie nerwowe jest naszą naturalną reakcją na trudne sytuacje i zwykle nas mobilizuje do działania. Niestety, gdy stres się przedłuża, wyniszcza organizm – może przyczyniać się też do kłopotów ze snem, lęków, nerwicy, a nawet depresji. Ula Rzeczko, jako manager i trener rozwoju osobistego opowie o tym, że najgroźniejszy jest stres ukryty, długotrwały. To właśnie on może wywołać konflikty małżeńskie, rodzinne czy zawodowe. Jak zauważa Rzeczko, która ukończyła Nowoczesną Dyplomację i Służby Zagraniczne na PWSBiA – w początkowym stadium stresu zawodzi nasza psychika, dopiero później zaczyna szwankować nasze ciało (dochodzi do zaburzeń pracy układu krążenia i trawiennego, obniżenia odporności czy kłopotów seksualnych, występują niepokojące kołatania serca, wzrasta ciśnienie tętnicze krwi i poziom cholesterolu całkowitego).

Jak temu zaradzić? Tajniki pokonywania stresu zna Ula Rzeczko, która wraz z wydawnictwem Infor podzieli się wiedzą już 16 stycznia 2019 r. w godzinach:  19.00-20.00

Udział w webinarium jest bezpłatny. Wystarczy zarejestrować swój udział na stronie.

https://sklep.infor.pl/landing/infor-akademia/2019/20190116_stres/

Podczas webinarium dowiedzą się Państwo:

  • czym jest stres,
  • jakie są jego źródła,
  • jak go pokonać.
Ula Rzeczko 
Jest certyfikowanym coachem MLC, managerem, trenerem. Wdraża projekty, konsultuje, prowadzi coachingi oraz treningi, warsztaty
i szkolenia z zarządzania stresem i emocjami, komunikacji i motywacji.
Specjalizuje się w psychologii stresu, wspieraniu rozwoju osobowości i wzmacnianiu kreatywności. Pomaga w podnoszeniu efektywności, wzmacnianiu pewności siebie, budowaniu determinacji pozwalającej osiągać cele, dbaniu o równowagę życiową, ograniczaniu stresu
i  planowaniu kariery. Korzysta z metod coachingu wielopoziomowego (MLC) oraz innych podejść, m.in. poznawczo-behawioralnych, hipnozy.
W pracy zależy jej na prawdziwych i trwałych efektach, dlatego opiera je na wiedzy naukowej. Jest zafascynowana psychologią i jej zastosowaniem we wprowadzaniu zmian. Prowadzi badania dotyczące kreatywności kobiet w sytuacjach stresowych.

Nieustannie rozwija się przez naukę nowych rzeczy. W życiu nastawiona jest  na  wsparcie w poszukiwaniu nowych perspektyw i naukę umiejętności. Uwielbia czytać książki, głównie psychologiczne oraz kryminały. Delektuje się dobrą kuchnią i  metodami relaksacji. Pamięta
o sile pozytywnych emocji i codziennie się o niej przekonuje.

  • Zakupy świąteczne nie przypominają dziś tych sprzed kilku lat. Rośnie popularność e-handlu, a świąteczne wyprzedaże nie budzą już takiego zainteresowania – wynika z raportu “Polaków portfel własny – świąteczne przygotowania” przygotowanego przez Santander Consumer Bank.
  • Tłum w sklepach i korki na ulicach najbardziej utrudniają Polakom przygotowania do Świąt.
  • Z powodu ustawy o ograniczeniu handlu w niedzielę co piąty badany planował w tym roku zacząć świąteczne zakupy wcześniej i zamówić więcej w sklepach internetowych.
  • Ponad 20 proc. badanych stresuje się dużymi wydatkami, jakie towarzyszą przygotowaniom do Świąt Bożego Narodzenia.
  • Większe obciążenie budżetów domowych w okresie świątecznym nie wpływa na sposób wykorzystania środków z programu 500+ – głównymi beneficjentami będą dzieci.

Boże Narodzenie to najbardziej intensywny czas zakupowy. Jak w soczewce skupiają się w tym czasie zmiany, jakie zachodzą w handlu i nawykach konsumentów. Żeby zrozumieć decyzje zakupowe Polaków w tym gorącym okresie, Santander Consumer Bank przeprowadził badania dot. świątecznych finansów. Efektem tej analizy jest raport “Polaków portfel własny – świąteczne przygotowania”, który analizuje m.in. sposób, w jaki robimy świąteczne zakupy, i wskazuje czynniki, które mają na to wpływ.

Zobacz też:

Idą smutne święta… dla inwestorów

Tegoroczne zakupy świąteczne są zupełnie inne, niż te robione pięć, a nawet trzy lata temu. – Handel tradycyjny nieustannie ewoluuje, podążając za trendami i oczekiwaniami klientów. Pojawiają się nowe kanały sprzedaży. Zmianom ulega również prawo, które wpływa zarówno na sposób prowdzenia biznesu, jak i na nawyki samych konsumentów – wylicza Piotr Monkiewicz, dyrektor departamentu pożyczek gotówkowych z Santander Consumer Banku.

Wyjątkowa atmosfera Bożego Narodzenia i tradycja obdarowywania bliskich sprawiają, że Polacy chętnie w tym okresie korzystają z ofert handlowców ale i banków oraz pozostałych instytucji finansowych. To czas wzmożonego zainteresowania kredytami konsumpcyjnymi i kredytem na  zakup towarów i usług (zwanych popularnie ratami). Z danych BIK wynika, że sprzedaż kredytów finansujących sprzedaż ratalną rośnie z  roku na rok, a najbardziej zauważalne jest to w kredytach na niskie kwoty.

Według badania wykonanego na zlecenie Santander Consumer Banku Polacy dostrzegają zmiany, jakie zachodzą w handlu. – Jako czynniki, które mają w tym roku najwięszy wpływ na zakupy świąteczne, wskazują rozwój sklepów internetowych (28,5 proc.) i płatności bezgotówkowych (23,3 proc.) – mówi Piotr Monkiewicz z Santander Consumer Banku. – Z kolei ekspansja dyskontów była najczęściej wskazywana w grupie badanych o najniższych dochodach – 31,8 proc. obserwacji – dodaje.

Rozwojowi sklepów internetowych na pewno sprzyja stres, który towarzyszy świątecznym zakupom w sklepach handlu tradycyjnego. Na czele zestawienia najbardziej stresogennych czynników Polacy wymienili tłum w sklepach (51,4 proc.) oraz korki w okolicach centrów handlowych (43,1 proc.). Ponad 20 proc. badanych jako denerwujące wskazało również duże wydatki związane z tym okresem. Może to mieć też wpływ na postrzeganie poświątecznych wyprzedaży. Prawie połowa badanych (42,8 proc.) nie interesuje się nimi wcale lub uważa, że to żadna okazja i źródło niepotrzebnych wydatków.

Tegoroczne Boże Narodzenie będzie pierwszym od czasu wprowadzenia zakazu handlu w niedzielę. Kilka miesięcy obowiązywania ograniczeń sprawiło, że większość badanych nie przewiduje problemów z tego powodu (zwłacza że w grudniu niedziel handlowych będzie więcej, niż zwykle). Jednak co piąta osoba deklaruje, że uregulowania wpłyną na jej świąteczne przygotowania i będzie zmuszona do dokonania zakupów dużo wcześniej lub kupi więcej produktów w sklepach online.

I tak prawie połowa badanych z wyższym wykształceniem (45 proc.) poszuka inspiracji zakupowych w internecie. Dla 30 proc. najmniej wykształconych nie będzie ważne co kupią w prezencie innym Niedziele niehandlowe najmniej utrudnień spowodują w miastach do 50 tys. mieszkańców, gdzie problemy przewiduje niecałe 11 proc. badanych, a najbardziej odczuwalne będą w miastach od 250 do 500 tys. mieszkańców – 36 proc. ankietowanych. W grupie wiekowej 30-39 lat aż ponad 40 proc. badanych deklaruje zmiany w przedświątecznych zakupach z powodu nowych ograniczeń w handlu. W najmniejszym stopniu wpłyną one na przygotowania osób najstarszych, wśród których niecałe 10 proc. przewiduje problemy z  tego powodu.

Jak pokazują wyniki badania, większe obciążenie budżetów domowych przed Świętami ma znikomy wpływ na sposób wykorzystania środków z programu Rodzina 500+. Pomimo większych wydatków w tym okresie, zdecydowana większość rodzin (prawie 80 proc.) deklaruje, że pieniądze z programu przeznaczy na prezenty dla dzieci i ich potrzeby. Tylko co dziesiąta rodzina planuje wydać te pieniądze na przygotowania do Świąt, finansując w ten sposób zakup artykułów spożywczych.

 

O BADANIU:

Badanie zostało zrealizowane na zlecenie Santander Consumer Banku w ankiecie telefonicznej, przeprowadzonej przez Instytut IBRIS w dniach 5–6 listopada 2018 r. W badaniu wzięły udział osoby dorosłe reprezentatywne dla całej Polski. Próba n=1000

 

Ho ho ho ❗ Już za chwilę Święta Bożego Narodzenia. 🎄🌲🎄 Z tej okazji „BiznesTubowy” Mikołaj ma dla Was facebookowe upominki! 🎁🎀🎁🎀
↕️↕️↕️
Pokażcie nam jak przygotujecie się do świąt – jak wyglądają Wasze choinki, wypieki, dekorowanie pierników, a może macie już za sobą firmową wigilię, której zdjęciem chcielibyście się podzielić?
Pełna dowolność – ogranicza Was tylko Wasza kreatywność 💬
🎄🌲🎄
Zaproście do konkursu znajomych, oznaczajcie ich w komentarzach, oceńcie nasz profil – gwiazdka to czas szczególny – przyznajcie i nam kilka gwiazdek!
🤩⭐️⭐️⭐️
Niech o portalu dowie się jak największa liczba osób, a takich konkursów z pewnością będzie więcej 😁🥰
My zaś spośród wszystkich nadesłanych zgłoszeń (w postaci komentarza ze zdjęciem pod postem) wybierzemy 4 najciekawsze i najaktywniejsze.
Do wygrania jest zestaw do pieczenia z foremkami, wykrojnikami do pierników, szpatułką i blachą na babeczki, a także z czapką szefa kuchni.
🍨🧁🍥
Śpieszcie się! Konkurs trwa tylko do czwartku 20 grudnia – do 23:59! W piątek wysyłamy prezenty kurierem! 👍💪
  1. Organizatorem konkursu jest portal BiznesTuba.pl – BiznesTuba Sp. z o. o.
  2. Nazwa konkursu to: „BiznesTubowy Mikołaj rozdaje nagrody”.
  3. Fundatorem nagród w konkursie jest BiznesTuba.pl.
  4. Konkurs jest przeprowadzony na fanpage’u serwisu internetowego prowadzonego przez Organizatora pod adresem: https://www.facebook.com/BiznesTuba/
  5. Konkurs trwa od 18 grudnia do 20 grudnia, do godz. 23:59.
  6. Uczestnictwo w konkursie oznacza zaakceptowanie poniższego regulaminu.
  7. W konkursie nie mogą brać udziału pracownicy ani członkowie rodzin pracowników BiznesTuba.pl.
  8. Zgłoszenia do konkursu przyjmowane są w formie komentarzy z odpowiedzią na pytanie konkursowe, pod postem konkursowym.
  9. Uczestnik konkursu może przesłać tylko jedną odpowiedź konkursową, a jeśli prześle więcej niż jedną, pod uwagę będzie brany i oceniany pierwszy komentarz.
  10. Kryteriami oceny będzie merytoryczność, kreatywność a także aktywność pod postem zgłaszającego się do konkursu.
  11. Zwycięzcy konkursu zostaną wybrani przez jury w składzie: Marta Strzykalska (BiznesTuba) oraz Magdalena Springer (BiznesTuba).
  12. Laureatów poinformujemy o wygranej na Facebooku.
  13. Wygrana nie podlega zamianie na inną nagrodę. Nie można też otrzymać jej równowartości pieniężnej.
Uczestnicy konkursu wyrażają zgodę na przetwarzanie swoich danych osobowych dla potrzeb niezbędnych przy realizacji konkursu, zgodnie z Ustawą o Ochronie Danych Osobowych z dnia 29.08.1997 (DZ.U. nr 133, poz. 883). Uczestnicy konkursu przyjmują do wiadomości, że podanie danych jest dobrowolne i że każdemu uczestnikowi przysługuje prawo dostępu do treści swoich danych oraz ich poprawiania. Uczestnik oświadcza, że wyraża zgodę na publikację swoich danych osobowych (imię i nazwisko) w przypadku otrzymania nagrody w konkursie.
Facebook jest w pełni zwolniony z odpowiedzialności za proces konkursowy. Administrator promocji korzysta z serwisu Facebook na własną odpowiedzialność.

Branża IT nie zwalnia tempa. Rośnie popyt na nowych pracowników i zarabiają oni coraz więcej. Dotyczy to zarówno początkujących programistów, jak i specjalistów biegle posługujących się najbardziej popularnymi językami oprogramowania. Najnowszy raport No Fluff Jobs pokazuje, najpopularniejsze technologie, specjalizacje oraz zarobki pracowników IT w 2018. A jakie trendy czekają branżę w 2019 roku? Wnioski są naprawdę optymistyczne.

Mijający rok na rynku pracy informatyków okazał się bardzo dobry zarówno na świecie, jak i w Polsce. Widoczne jest umacnianie się rynku pracownika i nic dziwnego skoro w branży IT brakuje ok. 50 tys. doświadczonych programistów.

Opublikowany właśnie raport największego portalu ogłoszeniowego dla branży IT, nie pozostawia tu złudzeń – programistom żyje się coraz lepiej. Ich zarobki w 2018 roku w porównaniu z ubiegłym rokiem zwiększyły się znacznie bardziej niż w innych branżach gospodarki. Dynamika wzrostu jest zależna od używanej technologii, doświadczenia i miejsca zamieszkania.

Opłacalne technologie i języki programowania

Jeśli chodzi o technologię i język programowania, najwyższe zarobki w 2018 roku odnotowali Scala Developerzy – tu średnia wysokość wynagrodzenia oscylowała wokół 13000 zł, co stanowiło wzrost o 4 proc. w porównaniu z 2017 rokiem. Na wysokie zarobki  powyżej 12500 zł mogli liczyć także specjaliści języka Java, Angular i Python. Ich pensje wzrosły od 6 do 10 proc. Jednak największe podwyżki, bo wynoszące prawie 12 proc. zanotowali PHP Developerzy – ich pensje wzrosły średnio z 8500 zł w 2017 r. do 9500 zł w roku kolejnym.

Dane te nie dziwią – Javascript to obecnie jedyny język wspierany przez wszystkie przeglądarki, używany przez biznes, a coraz częściej także w aplikacjach mobilnych i zastosowaniach backendowych.

-Java i Javascript to najpopularniejsze technologie na rynku polskim i światowym. Na tę utrzymującą się już od kilku lat tendencję wpływa wiele różnorodnych czynników – komentuje Tomasz Bujok – CEO No Fluff Jobs. –Javascript to aktualnie jedyny język wspierany przez wszystkie przeglądarki, a coraz częściej używa się go także w aplikacjach mobilnych, oraz w zastosowaniach backendowych. Java natomiast to nie tylko dojrzały język dostępny na rynku od ponad dwudziestu lat, ale przede wszystkim stabilna maszyna wirtualna JVM będącą najczęściej wykorzystywaną platformą aplikacyjną w zastosowaniach biznesowych.

W jakich miastach opłaca się szukać pracy?

Tu zaskoczenia nie ma – znów na podium uplasowały się największe miasta: Warszawa (średnia pensja pracowników IT w 2018 r. wyniosła 13000 zł)  i  Kraków (12000 zł). Co ciekawe, po raz pierwszy Trójmiasto pod względem wysokości pensji (12000 zł) wyprzedziło Wrocław (11500 zł). Wzrost wynagrodzeń – powyżej 9 proc. – nastąpił właśnie tam oraz w stolicy. Jedynie na Śląsku obserwowana jest tendencja spadkowa – zarobki spadły aż o 4 proc.

Najbardziej poszukiwani programiści

Najczęściej poszukiwani, podobnie jak w roku ubiegłym, byli programiści znający języki JavaScript (27w proc. wszystkich ogłoszeń), Java (24 proc.) i Angular (10 proc.). Popularność tych technologii w liczbie ogłoszeń o pracę w 2018 roku zwiększyła się w porównaniu z 2017 rokiem odpowiednio o 51,2 proc.,  44 proc. i 52,7 proc. Na uwagę zasługuje jednak wzrost znaczenia platformy .NET – 11 proc. ogłoszeń  skierowanych było do jej znawców, a występowała ona w nich aż 80 proc. częściej niż rok temu. Znacznie przybyło także ofert dla specjalistów języka Python (64 proc.) i  Scala (65 proc.). Choć technologie iOS i Android występowały w odpowiednio 2 proc. ogłoszeń, to i tu wzrosty sięgnęły 72 i 55 proc., co pokazuje, że rośnie zapotrzebowanie na specjalistów najpopularniejszych systemów operacyjnych.

Wraz z dynamicznym rozwojem innowacyjnych technologii, na rynku pracy IT wciąż wzrasta zapotrzebowanie na nowych pracowników.  Z roku na rok generują się nowe miejsca pracy w obszarze IT, obejmujące nie tylko stanowiska programistyczne, ale także związane z zarządzaniem zespołem, testowaniem czy też analityką  danych. I właśnie dane zebrane przez No Fluff Jobs pokazują także w jakich obszarach firmy zatrudniają najwięcej pracowników. Na prowadzeniu w Polsce w 2018 roku, podobnie jak na świecie, są programiści: Backend – 32 proc. ofert, Fullstack – 19 proc. oraz Fronted – prawie 16 proc. ofert.

Trendy w  2018 roku

Im bardziej rośnie zapotrzebowanie na programistów, tym więcej lepszych ofert i lepiej płatnych otrzymują początkujący pracownicy IT. Nie dość, że o 22 proc. przybyło młodych osób aplikujących na tzw. stanowiska juniorskie, tym bardziej umacnia się trend obserwowany od ubiegłego roku. Wszelkiego rodzaju bootcampy, kursy online  i darmowe e-booki, których przybywa, powodują, że pracodawcy wierzą w ich rosnące umiejętności i oferują im coraz wyższe wynagrodzenia. W 2018 roku w porównaniu z rokiem poprzednim zarobki początkujących programistów wzrosły aż o 9 proc. Ich pensje były średnio 37,5 proc. niższe niż seniorów, co jednak nie powinno martwić w obliczu tendencji malejącej, jeśli chodzi o czas, jaki należy przepracować, aby otrzymać awans w tej branży.

Wyzwania na  2019 rok

– Pozyskanie talentów jest jednym z największych wyzwań przed jakimi stoją obecnie pracodawcy, w tym także pracodawcy IT. W sytuacji ogromnego deficytu pracowników oraz wzrastającej konkurencyjności rynku, nie lada wyzwaniem staje się zarówno zatrudnienie nowych osób, jak też utrzymanie motywacji i atrakcyjności miejsca pracy wśród aktualnej kadry. Firmy stoją więc przed koniecznością ciągłego poszukiwania niestandardowych rozwiązań rekrutacyjnych. Jednym z kierunków działań jest praca nad zwiększaniem rozpoznawalności marki u coraz to młodszych kandydatów. – komentuje wyniki raportu Martyna Wójcik trener Sages i Kodołamacz, Specjalista HR z wieloletnim doświadczeniem w rekrutacjach IT.

Ekspertka wskazuje, że niewątpliwie także 2019 rok będzie czasem poszukiwań metod dotarcia do najmłodszych pracowników. Zachęcenie ich do łączenia studiów z pracą, będzie wymagało od firm nie tylko dostosowania do preferowanej przez nich formy kontaktu za pomocą social mediów czy poprzez SMS, ale przede wszystkim stworzenia dopasowanej do ich potrzeb i możliwości oferty programów praktyk, staży oraz programów mentoringowych.

W przyszłym roku, zdaniem Martyny Wójcik, pracodawcy z pewnością mierzyć się będą także z relokacją pracowników. Najpopularniejszym na tą chwilę kierunkiem, jest relokacja pracowników z Ukrainy, zwłaszcza w branży produkcji i usług, ale także IT. Tu firmy coraz częściej jednak podejmują próby relokacji osób z bardziej odległych miejsc na świecie,  spoza Unii Europejskiej.

*Uwzględnione w raporcie oferowane wysokości wynagrodzeń to stawki miesięczne brutto na umowie o pracę oraz netto na umowie B2B.

Ostatnie dni na drogach to dla kierowców prawdziwe wyzwanie. Konfrontują się oni – wydawać by się mogło – z osobami, które cały rok nie wyjeżdżały samochodem z garażu, a świąteczny tłok, chaos i nerwy związane zakupami świątecznymi powodują, że zamiast bezpiecznej podróży, rodzą się nerwy, stres i agresja. Do tego dochodzą też nieprzyjemne sytuacje kradzieży, przed którymi warto ustrzec się już teraz.

Warto mieć oczy dookoła głowy, bowiem świąteczny czas powiązany jest ze wzmożonymi kradzieżami samochodów. Mimo, że raporty policyjne wskazują na to, że do kradzieży dochodzi najczęściej na obrzeżach miast, na parkingach niestrzeżonych, a także na terenach osiedlowych – zdarzają się też sytuacje kradzieży pod supermarketami czy na autostradach i trasach szybkiego ruchu. W święta masowo stosowane są metody kradzieży „na usterkę”, „na kartkę” czy „na słtuczkę”. Te i  inne sposoby złodziei opisaliśmy niedawno w tym artykule.

Aby uniknąć kradzieży powinniśmy zachowywać się zgodnie z ustalonym schematem bezpieczeństwa. Nie ufajmy każdemu, nie pomagajmy też wszystkim, kto stoi tuż przy trasie lub tym, którzy usilnie chcą powiedzieć nam, że mamy mało powietrza w oponach. Złodzieje są bezwzględni i często żerują na emocjach i strachu. Pamiętajmy też, że metody kradzieży ewoluują i warto przede wszystkim zawierzyć bezpieczeństwo technicznym systemom zabezpieczeń. Oprócz immbolizerów, antynapadu, czujników ochrony wnętrza czy blokad silnika, warto postawić na sprawdzony system GPS, stosowany jako środek zapobiegawczy przed kradzieżą i z pewnością skuteczne narzędzie znalezienia auta.

– Monitoring samochodu to jeden z najbardziej skutecznych sposobów na zabezpieczenie się przed kradzieżą. Jest to idealne rozwiązanie nie tylko dla osób parkujących w miejscach bez miejskiego monitoringu, ale również uzupełniające zabezpieczenie dla kierowców i właścicieli flot. Monitoring pojazdów pozwala na szybką lokalizację skradzionego samochodu, niezależnie od tego gdzie zostanie ukryty – mówi przedstawiciel Konsalnet, dodając, że: – Nasz najnowszy system monitoringu pojazdów jest oparty o radiową lokalizację (Radiowa Lokalizacja Obiektu Mobilnego), dzięki czemu zagłuszenie go jest praktycznie niemożliwe. Lokalizacja pojazdu możliwa jest w dowolnym miejscu na terenie całego kraju. System monitoringu działa również w garażach, podziemiach oraz stalowych kontenerach. Nadajnik radiowy posiada niezależne zasilanie. Dzięki czemu jest to jedno z nielicznych rozwiązań w monitoringu pojazdów nie ingerujące w instalację elektryczną. Urządzenie będzie działać nawet w wypadku odcięcia samochodu od źródła energii.

Zobacz też:

Monitoring floty – jak to działa i co może przynieść firmie?

Po zapoznaniu się z ofertą marki Konsalnet, dowiadujemy się, że w razie kradzieży, procedura namierzenia pojazdu jest prosta i bardzo szybka. Po zgłoszeniu kradzieży na policję wystarczy skontaktować się z Centrum Monitoringu Konsalnet – gdzie po weryfikacji zgłoszenia kradzieży pojazdu zostanie uruchomiona akcja poszukiwawcza. Rozpoczyna się ona od aktywowania modułu radiowej lokalizacji pojazdu. Następne, przy pomocy jednostek naziemnych i powietrznych, sygnał modułu radiowego jest wychwytywany – dzięki czemu jest ustalana pozycja skradzionego pojazdu. Dodatkowo, dzięki sprawnej współpracy z policją, zespół Konsalnet jest w stanie zlokalizować skradziony pojazd nawet w ciągu 24 godzin od chwili zgłoszenia.

Jak na razie nie zanosi się, aby w te święta na inwestorów czekały prezenty. Globalna karuzela rozterek nie zatrzymuje się, co powstrzymuje aktywa ryzykowne od zysków. Obawy o spowolnienie, impas w negocjacjach brexitu, powrót gołębiego tonu banków centralnych, wojna na handlowe (i inne) argumenty między USA i Chinami. Ostatni regularny tydzień przed świąteczną przerwą jest napakowany ważnymi wydarzeniami makro, co jednak zderzy się z wysychaniem płynności i szarpanymi reakcjami.

Jęk zawodu słychać z różnych zakątków rynków finansowych, gdyż gdzie nie spojrzeć dochodzą negatywne sygnały. W piątek indeksy PMI z Eurolandu wypadły fatalnie – wskaźnik Composite (agregujący wyniki przemysłu i usług) na 51,3 był najsłabszy od czterech lat i dużo poniżej nawet najbardziej pesymistycznych prognoz rynkowych. I choć część rozczarowania można zrzucić na zdarzenia jednorazowe (np. protesty we Francji), to nawet po oczyszczeniu dane wskazują na przyhamowanie ożywienia. Jeśli ktoś się dziwił złagodzeniu tonu prezesa Draghiego na czwartkowej konferencji prasowej, to w piątkowych danych dostał wytłumaczenie. Strefa euro ma kłopoty, w przypadku Chin dyskutuje się, czy już nie są w recesji, ale władze w Pekinie „upiększają” dane. USA pozostają przyczółkiem solidnego wzrostu gospodarczego, ale nie brakuje spekulacji, kiedy bariera ochronna pęknie. Indeksy na Wall Street już odzwierciedlają te wątpliwości, choć dane o sprzedaży detalicznej pokazują, że konsumenci są potężną siłą. To jednak tylko jeden fakt w gąszczu pesymistycznych oczekiwań i wizji przyszłości. Szanse na rychłą odmianę sentymentu są nikłe, kiedy wszyscy są bardziej skupieni na odliczaniu do świąt niż ustalaniu strategii na dłuższy czas. Na to przyjdzie czas w styczniu.

Zobacz też:

Prognozy na 2019 rok – w gospodarce osłabienie, nerwowo na rynkach

Przed nami tydzień na ostatnie porządki przed okołoświąteczną flautą. Dziś powinno być spokojnie przy ubogim kalendarzu wydarzeń. Finalny odczyt inflacji ze strefy euro prawdopodobnie potwierdzi negatywne oddziaływanie spadku cen paliw, ale póki inflacja bazowa jest odporna, EBC będzie tutaj szukać furtki dla podtrzymania chociaż odrobiny optymizmu dla prognoz.

Głównym wydarzeniem tygodnia jest ostatnie posiedzenie Fed w tym roku (wt-śr) i rynek powszechnie spodziewa się kolejnej podwyżki stóp procentowych. Większe zainteresowanie będzie dotyczyć języka komunikatu, gdyż w ostatnich tygodniach członkowie komitetu sugerowali zmianę nastawienia, odejście od mechanicznego podnoszenia stóp raz na kwartał, a zaczęli przywiązywać większą wagę do danych krajowych i globalnych. Zmiana ta wystraszyła część inwestorów, w rezultacie czego rynek zaczął wyceniać szanse na mniej niż jedną podwyżkę w przyszłym roku. Te oczekiwania wydają się przesadnie pesymistyczne (zakładamy co najmniej dwie podwyżki w 2019 r.) i z tego punktu widzenia zmiana języka Fed może nie być tak szkodliwa dla USD, jak jest to obecnie dyskontowane.

Poza tym mamy posiedzenia Banku Japonii, szwedzkiego Riksbanku i Banku Anglii (wszystkie w czwartek), gdzie jednak emocje mogą być mniejsze niż w USA. Wśród danych odczyty z rynku nieruchomości USA (wt, śr) będą analizowane pod kątem oceny skutków dotychczasowego zacieśniania polityki pieniężnej.

W Polsce nie spodziewamy się, aby odczyty inflacji bazowej (pon), danych z rynku pracy (wt), produkcji przemysłowej) i sprzedaży detalicznej (pt) mogły przynieść reakcję złotego. PLN na 4,30 za EUR czuje się, jak u siebie w domu i nikt z zewnętrz też nie chce zaburzać jego spokoju. Zakładamy, że sytuacja taka utrzyma się do końca roku.

Konrad Białas
Dom Maklerski TMS Brokers S.A.

Od stycznia do listopada 2018 r. Polacy zarejestrowali prawie 865 tys. używanych samochodów osobowych, podczas gdy nowych niemal o połowę mniej – ponad 486 tys.[1] Co więcej, 54% sprowadzonych aut ma ponad 10 lat. Skąd takie zainteresowanie używanymi pojazdami? Eksperci EFL w najnowszym raporcie „Nowy czy używany? Jakie samochody kupują Polacy” wskazują na dwa powody. Niskie płace – na Volkswagena Golfa z salonu statystyczny Polak musi pracować aż 19 miesięcy, podczas gdy Niemiec tylko 8.  Drugim czynnikiem jest szybka utrata wartości nowych aut.

– Niższe niż w Europie Zachodniej zarobki i wrodzona chęć do tego, by mieć więcej za mniej, przyniosły niebywałą popularność w naszym kraju samochodów używanych, która utrzymuje się od końca lat 90-tych. Obecnie jednak sytuacja się cywilizuje. Po pierwsze, klienci są coraz bardziej świadomi i zdają sobie sprawę, że cena to nie wszystko. Po drugie, nowe regulacje prawne dają nadzieję na ukrócenie procedur zaniżania przebiegu importowanych aut. Po trzecie, widoczna jest zmiana podejścia Polaków do kwestii posiadania samochodu. Do niedawna oczywistym był zakup czterech kółek na własność. Z roku na roku rośnie popularność leasingu i wynajmu, dzięki czemu możemy cieszyć się nowym autem bez konieczność angażowania wysokiego budżetu. To dotyczy przede wszystkim firm, dlatego następnym krokiem powinno być szersze umożliwienie korzystania z tych instrumentów finansowych osobom prywatnym. Dzięki temu udział konsumentów w rejestracja nowych osobówek będzie rósł i z czasem proporcje 70:30 z przewagą dla firm, odwrócą się z przewagą dla klientów indywidualnych – mówi Radosław Kuczyński, prezes EFL.

Zobacz też:

Mazda CX-3 – samochód dla aktywnych i niezależnych kierowców

Od 2004 roku Polacy kupują więcej używanych aut niż nowych

Z danych Polskiego Związku Przemysłu Motoryzacyjnego wynika, że w ciągu pierwszych 11 miesięcy tego roku do Polski zostało sprowadzonych 864 678 używanych samochodów osobowych (+6,9% r/r). To niemal tyle samo, ile w całym 2017 roku. W tym samym czasie Polacy kupili 486 499 nowych osobówek, o 11% więcej niż rok temu. Choć dynamika sprzedaży aut z salonu jest dużo wyższa niż aut importowanych, to jednak wolumenowo, Polacy zdecydowanie częściej decydują się na kilku- lub kilkunastoletnie auta. Graniczną datą było wejście Polski do Unii Europejskiej w 2004 roku. W 2003 roku sprowadziliśmy ponad 30 tys. używanych aut osobowych, podczas gdy rok później już ponad 800 tys. Warto podkreślić, że w roku poprzedzającym akcesję Polski do UE, zarejestrowaliśmy ok. 10 razy mniej aut używanych niż nowych, podczas gdy rok później tendencja ta się odwróciła – ponad dwa razy więcej Polaków usiadło za kierownicą sprowadzonego auta niż nowego. Do dziś rokrocznie rejestrujemy zdecydowanie więcej importowanych aut niż tych z salonu.

Półtora roku pracy Polaka

Autorzy raportu EFL „Nowy czy używany? Jakie samochody kupują Polacy” wskazują na dwie główne przyczyny dużego zainteresowania Polaków zakupem używanych aut osobowych. Podstawowy powód to wciąż niskie zarobki, przez które nabycie osobówki z salonu za gotówkę przekracza możliwości finansowe większości mieszkańców naszego kraju. Wystarczy porównać sytuację Polaka z obywatelem Niemiec. Na przykładowego Volkswagena Golfa statystyczny Polak musi pracować aż 19 miesięcy, podczas gdy Niemiec tylko 8.[2]

Drugim powodem, który zniechęca do wizyt w salonie, jest duża utrata wartości nowych aut. W przypadku popularnych marek miejskich wynosi ona ok. 50% po 3 latach użytkowania – np. kupując nową Skodę Octawię za 100 tys. zł, po 3 latach stracimy na niej aż 50 tys. zł. Jeszcze gorzej sytuacja wygląda w przypadku marek luksusowych, gdzie spadek wartości może wynieść nawet 65%.

Przeczytaj również:

Poznaj metody kradzieży samochodów i… bądź sprytniejszy od złodzieja

Firmy napędzają sprzedaż nowych aut

Kołem zamachowym rynku nowych samochodów osobowych pozostają firmy. Z danych PZPM wynika, że od stycznia do listopada br. do firm rejestrujących na regon dostarczono aż 350,7 tys. sztuk. To ponad 72% udziałów w rynku. Tylko 28% nabywców to klienci indywidualni. To, co dla Kowalskiego jest dużym i niezbyt opłacalnym wydatkiem, dla przedsiębiorstwa okazuje się inwestycją i często sposobem na optymalizację podatkową. Flota samochodowa pozwala zrobić tzw. „koszty” i nie obciąża jednorazowo firmowego budżetu. Przyczyną takiego stanu rzeczy są alternatywne formy finansowania, przede wszystkim leasing i wynajem. Udział firm zajmujących się leasingiem/CFM/RC w rynku od początku 2018 roku wynosi 48,8% (67,7% w rejestracjach licząc tylko nabywców instytucjonalnych).

– Liczymy, że ogólna sytuacja społeczno-gospodarcza w Polsce, na którą składa się m.in. rekordowo niskie bezrobocie, podwyżki wynagrodzeń czy program 500+, powinna przełożyć się na zwiększone zakupy nowych czterech kółek przez klientów indywidualnych. Jednak bez ingerencji władz uzyskanie takiego wyniku rejestracji nowych osobówek, w którym większy udział będą mieć konsumenci niż firmy, może okazać się bardzo trudne. Dobrym krokiem, w dobie mody na elektromobilność, może okazać się wsparcie finansowe przy zakupie aut elektrycznych. Dzięki temu, powinien wzrosnąć popyt na nowe cztery kółka, w dodatku te ekologiczne – mówi Radosław Kuczyński.

Pełna wersja raportu EFL „Nowy czy używany? Jakie samochody kupują Polacy.” jest dostępna na stronie https://efl.pl/biznes-i-ty/raport/

 

[1] Źródło: http://www.pzpm.org.pl/

[2] Dane do wyliczenia: cena VW Golfa w Polsce: 63 090 pln, cena VW Golfa w Niemczech: 79 000 pln, przeciętne wynagrodzenie Polaka: 3320 pln netto, przeciętne wynagrodzenie Niemca: 9875 pln netto

Rok 2019 bez wątpienia będzie okresem globalnego spowolnienia wzrostu gospodarczego. Nie powinno ono być jednak zbyt głębokie, pod warunkiem że nie dojdzie do eskalacji napięć i konfliktów geopolitycznych.

Czynnikiem ryzyka, głównie dla rynków finansowych, może być polityka banków centralnych, przede wszystkim Fed. Inwestorzy nie powinni oczekiwać wysokich zysków i bardziej koncentrować się na ochronie kapitału.

Polska gospodarka ma szanse na czwórkę

Mimo niekorzystnych warunków zewnętrznych, doskonale widocznych już pod koniec 2018 r., polska gospodarka doskonale dawała sobie radę, rosnąć w tempie lekko przekraczającym 5 proc., przy jednocześnie niskiej inflacji. Połączenie obu tych czynników świadczy o równowadze makroekonomicznej, która dodatkowo wspierana była bardzo dobrą kondycją finansów państwa. W 2019 r. sytuacja nie będzie już tak komfortowa. Zagrożeń dla budżetu co prawda nie widać, ale tempo wzrostu gospodarczego będzie słabsze. Większość prognoz zakłada jego spowolnienie do 3,5-3,8 proc. Pesymiści obawiają się zejścia do nieco ponad 3 proc., zaś optymiści mają nadzieję na dynamikę PKB zbliżoną do 4 proc. Wydaje się, że ta druga grupa może być bliższa prawdy. Lokalne i globalne otoczenie nadal nie będzie nam pomagać, ale bilans czynników wewnętrznych nie musi być tak niekorzystny, jak się tego obawia większość ekonomistów. Przede wszystkim nadal silny powinien być popyt wewnętrzny, zarówno w przypadku konsumpcji gospodarstw domowych, jak i wydatków publicznych. Pozytywnie mogą też zaskoczyć inwestycje. Mimo zagrożeń, można też liczyć na neutralny lub nawet lekko korzystny wpływ bilansu handlowego na PKB. Warto zwrócić uwagę, że według większości renomowanych światowych ośrodków analitycznych, Polska należy do nielicznych krajów, dla których prognozy wzrostu gospodarczego są podwyższane względem wcześniejszych przewidywań. Nawet spowolnienie dynamiki PKB do 3-3,5 proc. stawiałoby nas w czołówce najszybciej rozwijających się krajów.

Zobacz też:

OEES: Pracodawcy RP wspierają ekonomię… wartości

Inflacja może nam dokuczyć

Tym, co najbardziej martwi zarówno konsumentów, jak i posiadaczy oszczędności oraz inwestorów, jest perspektywa wzrostu inflacji. Pod tym względem 2018 r. był wyjątkowo łaskawy. W kolejnych miesiącach, a szczególnie w drugiej połowie 2019 r. na taryfę ulgową raczej nie ma co liczyć. Niemal wszyscy ekonomiści spodziewają się wyraźnego przyspieszenia tempa wzrostu cen. Jednak co ciekawe, największym pesymizmem wykazują się eksperci Departamentu Analiz Ekonomicznych NBP, prognozując możliwość wzrostu inflacji nawet do 3,2 proc. Jednocześnie Rada Polityki Pieniężnej nadal konsekwentnie deklaruje utrzymywanie stóp procentowych na niezmienionym, rekordowo niskim poziomie. Takie zestawienie zdecydowanie niekorzystnie wróży posiadaczom oszczędności. Oprocentowanie lokat bankowych i tak już dramatycznie niskie, nie pójdzie w górę, co przy zwiększonej inflacji będzie powodować silniejszą niż dotąd erozję realnej wartości odkładanych pieniędzy i kapitału lokowanego w najbardziej bezpiecznych instrumentach finansowych. W tej materii widoczne wyraźnie od kilkunastu miesięcy preferencje oszczędzających i inwestorów raczej nie ulegną zmianie. Nie sprzyja temu zresztą niepewność warunków na rynkach finansowych, której sygnały pojawiły się już w 2018 r., a szczególnie w jego ostatnich miesiącach. Nawet gdyby inflacja okazała się niższa, niż szacuje NBP, większość bezpiecznych instrumentów nie będzie w stanie ochronić realnej wartości kapitału. Wyjątkiem będą obligacje skarbowe indeksowane wskaźnikiem inflacji oraz nieruchomości. W obu tych przypadkach obserwowany jest silny wzrost zainteresowania ze strony posiadaczy oszczędności.

Silny wzrost inflacji nie jest jednak przesądzony. U podstaw takiego scenariusza leży bowiem założenie wzrostu cen energii. Według najnowszych zapowiedzi przedstawicieli rządu, prąd dla gospodarstw domowych nie powinien podrożeć. Gdyby tak się stało, efekt inflacyjny miałby charakter pośredni, związany jedynie z podwyżkami cen wynikającymi z wyższych kosztów energii dla firm. Niewiadomą pozostaje wpływ ceny ropy naftowej i żywności.

Niepewnie na rynkach finansowych

Rok 2018 okazał się zdecydowanie niepomyślny dla inwestorów. Indeksy na większości giełd poszły mocno w dół, a straty sięgały w wielu przypadkach po kilkanaście procent. W ostatnich miesiącach zaczęła się także wyraźnie chwiać hossa na Wall Street. Perspektywy na 2019 r. także nie wyglądają najlepiej. Trudno spodziewać się wzrostów, gdy koniunktura w globalnej gospodarce słabnie, a groźba eskalacji, a co najmniej utrzymywania się konfliktu między Stanami Zjednoczonymi a Chinami, wykraczającego poza relacje handlowe, wciąż jest aktualna. Jednak biorąc pod uwagę skalę spadków, przekraczającą 20 proc. na giełdzie w Szanghaju, sięgającą 17 proc. we Frankfurcie, można zakładać, że spowolnienie gospodarcze w większości zostało już przez inwestorów zdyskontowane. Gdyby więc okazało się, że nie będzie ono zbyt głębokie i długotrwałe, można oczekiwać poprawy sytuacji na giełdach w drugiej połowie 2019 r. Nastroje na rynkach finansowych może jednak psuć obawa o kondycję gospodarki amerykańskiej, która dopiero zacznie spowalniać, a pesymiści przewidują, że w 2020 r. może nawet wejść w fazę recesji. W takiej sytuacji pogłębienie spadkowej tendencji na Wall Street byłoby bardzo prawdopodobne, a to niekorzystnie wpływałoby na pozostałe światowe parkiety.

Jednym z kluczowych czynników, od których zależeć będą tendencje na rynkach finansowych, są działania Fed. Jeśli będzie kontynuował cykl zaostrzania polityki pieniężnej, należy się spodziewać gorszej koniunktury na giełdach, umocnienia dolara oraz wzrostu rentowności amerykańskich obligacji skarbowych. Mocny dolar to czynnik niekorzystny dla rynków wschodzących i notowań surowców. Ewentualne pogorszenie się koniunktury w Stanach Zjednoczonych powinno jednak powstrzymać rezerwę federalną przed podwyżkami stóp procentowych. Do tej pory Fed zapowiadał trzy podwyżki w 2109 r., jednak ten scenariusz wydaje się coraz mniej prawdopodobny, co sugerował w niedawnych wypowiedziach Jerome Powell, deklarując uzależnienie ścieżki podwyżek stóp od danych makroekonomicznych.

Roman Przasnyski
Główny Analityk GERDA BROKER

 

Od 2015 r. Polska utrzymywała nadwyżkę w wymianie międzynarodowej. Rok 2018 polski handel zagraniczny zakończy jednak najprawdopodobniej na minusie, prognozują analitycy międzynarodowej instytucji płatniczej AKCENTA. Miroslav Novák, główny analityk firmy szacuje, że w 2019 r. tempo wzrostu eksportu pozostanie niższe niż dynamika importu i wyniesie odpowiednio 5-6% dla wywozu i dla 6-7% wwozu towarów. Duży wpływ na polską wymianę handlową będzie miał słabszy popyt na import w strefie euro, a przede wszystkim w Niemczech.

Przez ostatnie trzy lata Polska mogła cieszyć się dodatnim bilansem handlu zagranicznego. Na koniec 2015 r. w wymianie międzynarodowej kraj nad Wisłą po raz pierwszy od lat 90. wypracował dodatnie saldo, kończąc rok z blisko 2,4 mld euro nadwyżki. Wynik ten udało się jeszcze poprawić w kolejnym roku. W 2016 r. nadwyżka wyniosła już prawie 4 mld euro. W latach 2015-2016 dynamika wzrostu wartości eksportu była wyraźnie wyższa niż importu. Jednak już w roku 2017 trend ten uległ zmianie i wartość wwozu towarów do Polski rosła szybciej niż polska sprzedaż zagraniczna. Dostępne obecnie dane GUS za dziesięć miesięcy 2018 r. wskazują również na szybszy wzrost importu (9,5% r/r) niż eksportu (6,5% r/r) i pogłębiające się ujemne saldo wymiany handlowej, sięgające już -3,2 mld euro.

Wykres 1.

Rok 2019 wciąż z przewagą importu

Nadzieje na nadwyżkę w polskim handlu zagranicznym w 2018 r. są nikłe. Eksperci AKCENTY prognozują, że i w roku 2019 bilans pozostanie ujemny. W nadchodzącym roku zarówno eksport, jak i import będą wykazywać dodatnią dynamikę wzrostu, z lekką przewagą importu. Główny analityk AKCNETY, Miroslav Novák szacuje, że zagraniczna sprzedaż towarów z Polski powinna rosnąć w tempie ok. 5-6%, a import ok. 6-7%. – Na polski eksport w 2019 r. silnie oddziaływać będzie słabszy popyt ze strefy euro i Niemiec. Na horyzoncie widać bowiem spowolnienie gospodarcze w tych krajach. Z drugiej strony niska inflacja i wzrost płac w Polsce pozytywnie wpływają na siłę nabywczą polskich gospodarstw. Rosnąca konsumpcja będzie stymulować popyt na towary z zagranicy – tłumaczy analityk AKCENTY.

Spowolnienie gospodarcze w Niemczech jest spodziewane już od dłuższego czasu. Jego oznaki widać chociażby w wynikach PKB, który w III kwartale br. jest niższy o 0,2% względem poprzedniego kwartału, jak i innych wskaźników, np. Ifo czy PMI. Ewentualny głębszy kryzys w niemieckiej gospodarce i recesja to jedne z największych zagrożeń dla polskiego eksportu. Zachodni sąsiad jest największym odbiorcą polskiej sprzedaży zagranicznej. Kierunek ten odpowiada za 28% całego eksportu. Z kolei do strefy euro wędruje łącznie prawie 58% wysyłanych z Polski towarów. Sytuacja gospodarcza w tym regionie ma wiec ogromny wpływ na polską wymianę handlową. – Lekkie wyhamowanie gospodarki to jeszcze nie powód do dużego niepokoju. Po okresie bardzo szybkiego rozwoju gospodarka musi się od czasu do czasu trochę ostudzić. Jednak z drugiej strony nie możemy z całą pewnością wykluczyć nadchodzącej recesji. Możliwość realizacji tego czarnego scenariusza widziałbym np. w przypadku konfliktu handlowego między Unią Europejską a USA. Ograniczenia w handlu i spadek popytu na towary wytwarzane w UE najbardziej dotknęłyby Niemcy, które są potęgą eksportową – wyjaśnia Miroslav Novák. A to już poważne zagrożenie dla Polski, ostrzega analityk AKCENTY. Ekspert spodziewa się również, że nieco wolniej w 2019 r. będzie rosło także polskie PKB. Prognozowane przez AKCENTĘ tempo wzrostu miałoby wynieść 3-4%.

Pozytywne sygnały na 2019 r.

Potencjalne zagrożenia w 2019 r. nie powinny przysłonić optymistycznych prognoz. Analitycy AKCENTY spodziewają się, że w nadchodzącym roku złagodzi się wiele napięć, z którymi mieliśmy do czynienia w 2018 r. Wielka Brytania i Unia Europejska są na drodze do porozumienia w kwestii Brexitu. Sygnały uspokojenia się napięć w handlu międzynarodowym widać także na linii Chiny-USA. Ostatnie spotkanie Donalda Trumpa i Sekretarza Generalnego Komunistycznej Partii Chin Xi-Jinping’a na szczycie G20 uważane jest za punkt przełomowy we wzajemnych relacjach i możliwy początek poprawy stosunków między oboma krajami. – Osiągnięcie porozumienia handlowego między Chinami i USA wydaje się coraz bardziej prawdopodobne. Być może usłyszymy o nim już w pierwszej połowie nadchodzącego roku. Sądzę, że będzie to miało istotny wpływ na zmniejszenie negatywnych nastrojów na rynkach i globalnego ryzyka w 2019 r. – twierdzi Miroslav Novák z AKCENTY.

Spokojniejszy rynek walutowy

Analityk AKCENTY wskazuje, że uspokojenie się sytuacji na rynkach międzynarodowych pozytywnie wpłynie na wartość złotego. Złotówka skorzysta na pozytywnym rozwoju gospodarki światowej i zmniejszeniu się nerwowości na rynkach. Będzie także czerpać z silnego rozwoju polskiej gospodarki nawet w obliczu spowolnienia wzrostu PKB. Miroslav Novák prognozuje, że kurs polskiej waluty w stosunku do euro będzie oscylował wokół poziomu 4,25 w I kwartale 2019 r. W kolejnym kwartale znajdzie się w okolicach 4,20 EURPLN, a w drugiej połowie roku za 1 euro zapłacimy ok. 4,15 zł.

Spadek nerwowości na rynkach finansowych powinien w pierwszych miesiącach nowego roku przynieść także umocnienie się złotego względem dolara amerykańskiego. Prognozy Akcenty zakładają, że w I kwartale 2019 r. kurs na tej parze walutowej będzie notowany na poziomie ok. 3,60 USDPLN. W II kwartale powinien znaleźć się już w okolicach 3,50 USDPLN, a w dwóch ostatnich kwartałach w pobliżu 3,30 USDPLN.

Stopy procentowe w 2019 r.

W kwestii podnoszenia stóp procentowych, ekspert AKCENTY prognozuje, że Europejski Bank Centralny będzie w nadchodzącym roku bardzo ostrożny w zacieśnianiu polityki pieniężnej. – Pierwszej podwyżki stóp procentowych w strefie euro spodziewam się nie wcześniej niż w IV kwartale 2019 r. Z kolei w przypadku USA sądzę, że FED nadal będzie je podnosił, ale w znacznie wolniejszym tempie niż ten rok. Stopy procentowe w Stanach Zjednoczonych są już bowiem bardzo zbliżone do neutralnego poziomu i System Rezerwy Federalnej ma coraz mniejsze pole do kontynuacji szybkich podwyżek, jak miało to miejsce w 2017 i 2018 r. – mówi Miroslav Novák. Według analityka Akcenty, w Polsce NBP poczeka z podniesieniem stóp procentowych na ruch EBC i jest bardzo mało prawdopodobne, aby uczynił taki krok przed IV kwartałem 2019 r.

Biznes ma realny wpływ na realizację Agendy 2030 i wskazanych w niej Celów Zrównoważonego Rozwoju. Przykłady działań, służących inspiracji całego sektora, zawiera publikacja Forum Odpowiedzialnego Biznesu, Raport „Odpowiedzialny biznes w Polsce. Dobre praktyki”. Właśnie trwa nabór działań do wydania za 2018 rok.

Raport „Odpowiedzialny biznes w Polsce. Dobre praktyki” stanowi największy w Polsce przegląd społecznej odpowiedzialności biznesu w danym roku. Na jego główną część składają się działania firm – w ubiegłej edycji ponad 1000 przykładów takich aktywności. Dodatkową klasyfikacją zgłaszanych co roku praktyk są Cele Zrównoważonego Rozwoju (Sustainable Development Goals – SDG), ujęte w 17 wyzwań, które następnie przyporządkowywane są do większości publikowanych w raporcie praktyk. Do 9 stycznia trwa nabór działań firm do kolejnej edycji publikacji. Zgłoszenia odbywają się przez stronę: http://odpowiedzialnybiznes.pl/raport2018/.

W raporcie Forum Odpowiedzialnego Biznesu znajdują się praktyki dotyczące wszystkich 17 Celów Zrównoważonego Rozwoju, czyli obejmujące kwestie społeczne i pracownicze, działania na rzecz planety, wzrostu gospodarczego, pokoju, aż po partnerstwa dla realizacji celów. Zatem publikacja ukazuje aktywność niefinansową firmy, coraz ważniejszą dla jej interesariuszy, a także stanowi miejsce prezentacji i komunikacji tego zaangażowania.

Włączenie Celów Zrównoważonego Rozwoju do najważniejszej publikacji Forum Odpowiedzialnego Biznesu ma również wspierać promocję inicjatywy, zachęcając wszystkie firmy, aby tworząc i realizując pojedyncze działania i całe strategie odpowiedzialnego biznesu − brały pod uwagę wyzwania zrównoważonego rozwoju zdefiniowane na poziomie globalnym.

Analizując praktyki w powiązaniu z SDG, można zaobserwować obszary, w których firmy w Polsce działają chętnie i te wciąż jeszcze mało popularne.

Najczęściej poruszane Cele Zrównoważonego Rozwoju w praktykach z poprzedniej edycji raportu:

  • Cel nr 4 (Zapewnić wszystkim edukację wysokiej jakości oraz promować uczenie się przez całe życie) – 332 praktyki
  • Cel nr 3 (Zapewnić wszystkim ludziom w każdym wieku zdrowe życie oraz promować dobrobyt) – 224 praktyki
  • Cel nr 8 (Promować stabilny, zrównoważony i inkluzywny wzrost gospodarczy, pełne i produktywne zatrudnienie oraz godną pracę dla wszystkich ludzi) – 136 praktyk
  • Cel nr 12 (Zapewnić wzorce zrównoważonej konsumpcji i produkcji ) – 102 praktyki

Najmniej praktyk dotyczy Celu 14. Życie pod wodą

Zgłoszenia

Do raportu można zgłaszać praktyki nowe i długoletnie. Praktyki nowe to przykłady działań CSR dotychczas niepublikowane w żadnym z raportów Forum Odpowiedzialnego Biznesu, a realizowane w 2018 roku. Praktyki długoletnie opisano przynajmniej raz w dotychczas wydanych raportach i kontynuowane były również w 2018 roku.

Rozpoczęliśmy bardzo ważny i wyczekiwany przez wiele firm proces naboru działań CSR do jedynej w Polsce tak  kompleksowej publikacji, podsumowującej odpowiedzialne społecznie działania biznesu. Serdecznie zapraszamy do zgłaszania aktywności CSR-owych. Firmy mogą rejestrować swoje praktyki do 9 stycznia. Zachęcamy jednak do wcześniejszego zapoznania się z formularzem, zasadami zgłoszeń i przygotowania się do przesłania działań z zakresu społecznej odpowiedzialności biznesu. To ważne również z tego powodu, że w tym roku formularz przybierze nową formę. Funkcjonalności pozostają niemal identyczne, jednak sprawdzenie z wyprzedzeniem sposobu zgłaszania praktyk usprawni  z pewnością cały proces. Wcześniejsza rejestracja może być dużym ułatwieniem zwłaszcza dla firm, które w tym roku będą debiutowały w naszym raporcie – przypomina Marzena Strzelczak, dyrektorka generalna Forum Odpowiedzialnego Biznesu.

Zgłoszenie oraz publikacja dobrych praktyk jest bezpłatna. Ich rejestracji można dokonywać przez formularz: http://odpowiedzialnybiznes.pl/raport2018/, do 9 stycznia 2019 roku (włącznie).

Liczba zgłaszanych praktyk nie jest ograniczona, ale warunkiem ich zakwalifikowania jest zgodność z ideą społecznej odpowiedzialności biznesu i zrównoważonego rozwoju. Ostatecznej weryfikacji dokonuje Komitet Merytoryczny złożony z przedstawicieli Forum Odpowiedzialnego Biznesu pod przewodnictwem dyrektorki generalnej, Marzeny Strzelczak.

Więcej informacji na temat: zgłaszania i redakcji praktyk, obsługi formularza, ukazania się raportu, udziela Marta Borowska, menedżerka projektów w Forum Odpowiedzialnego Biznesu (tel. 22 627 18 71, e-mail: marta.borowska@fob.org.pl).

Raport „Odpowiedzialny biznes w Polsce. Dobre praktyki” to najważniejsza cykliczna publikacja Forum Odpowiedzialnego Biznesu, wydawana od 2002 roku. Raport jest przeglądem aktywności firm, które zgłosiły swoje działania w zakresie CSR, oraz podsumowuje najważniejsze kwestie związane z odpowiedzialnym biznesem w danym roku w Polsce. W części wprowadzającej znajdują się artykuły i komentarze ekspertów/ekspertek. Stałym elementem publikacji jest także przegląd wybranych artykułów prasowych oraz kalendarium wydarzeń związanych z CSR. Poprzednie edycje dostępne na stronie: http://odpowiedzialnybiznes.pl/typ-publikacji/raporty-publikacje-fob/.

Zarządzanie produktem nie jest łatwym zadaniem, zwłaszcza w tak szybko zmieniającym się świecie. Szczególnie jeżeli chodzi o branże cyfrową, która z każdym rokiem zaskakuje nas czymś nowym. ‚

W zarządzaniu produktem potrzeba intuicji, która wyjdzie naprzeciw potrzebom oraz dostarczy uniwersalne rozwiązanie. Na co należy uważać chcąc osiągnąć sukces w działaniu? Poniżej przedstawiamy najważniejszych determinantów sukcesu zarządzania produktem cyfrowym.

  1. Leap of faith

W wielu przypadkach zdarza się tak, że ktoś tworzy pomysł, zatrudnia pracowników, wydaje w ciągu miesiąca kilkanaście tysięcy złotych na jego rozwój. W miarę działający produkt zostaje wypuszczony na rynek, ale po jakimś czasie okazuje się, że nie przeszedł pozytywnie pierwszych testów użytkowników.

Menadżer produktu stara się dostosować produkt oraz dostarczyć jego ostatnią, ulepszoną wersję. W tym celu zatrudnia sprzedawcę lub marketingowca, jednak i to rozwiązanie zawodzi. Takie sytuacje bardzo często można spotkać w startupach, które nie są w stanie precyzyjnie określić poziomu swojego rozwoju. Dodatkowo, często bywa tak, że tworzenie produktu nie jest poprzedzone rozmowami z klientami, brakuje testów i dokładnej ich analizy.

  1. Słuchaj klientów

Podstawą działania firmy jest model zorientowany na klienta. Należy na bieżąco rozwiązywać ich problemy oraz słuchać, co mają do powiedzenia na temat produktu. Menadżer produktu zbiera zaś wnioski, sporządza listę i zaczyna pracę nad jego udoskonaleniem. Z drugiej strony, należy mieć zawsze złoty środek i być dla klienta doradcą oraz ekspertem w swojej dziedzinie, który mówiąc krótko, sprowadzi go na ziemię. Bardzo często dochodzi do sytuacji, że klient ma zbyt idealistyczne podejście do produktu lub usługi, dlatego potrzebuje przewodnika, który ukierunkuje jego pomysł oraz pomoże w jego realizacji.

Zobacz też:

20 proc. klientów robi zakupy pod wpływem digital signage

  1. Ślepe kopiowanie konkurencji

Można, a wręcz należy przeanalizować działania konkurencji, by na ich podstawie określić własne mocne i słabe strony. Niektóre rynki tak właśnie działają, tworzą produkt w oparciu o już istniejące rozwiązania. W wielu przypadkach firmy wprowadzają rozwiązanie na rynek, ale nie mają już budżetu na jego ekspansję. Nawet jeżeli posiada on pewną liczbę użytkowników, to powstaje pytanie jak zdobyć kolejnych i w jaki sposób rozwijać produkt dalej. W takich przypadkach firmy posiłkują się na działaniach konkurencji. Jednak ważne jest, aby zrozumieć w czym konkurencja jest lepsza i co tak naprawdę działa w ich przypadku. Bowiem może dojść do sytuacji, w której firma może kopiować błędy, a nie osiągnięcia.

  1. Źle przeprowadzone badania

Analiza badań jest podstawowym narzędziem szukania odpowiedzi na pytania: jaki rodzaj produktu stworzyć oraz jakie problemy rozwiązać. Wiodącą formą badań są ankiety, jednak ich podstawowym problemem jest to, że zaczynają one zmieniać proces poszukiwania problemu w wybór jednego, uniwersalnego rozwiązania. Ankiety są badaniem ilościowym, które działają dobrze na duże grupy osób, mające tylko statystycznie potwierdzić lub zaprzeczyć danej kwestii. Przed rozpoczęciem badań ankietowych trzeba zrozumieć o co należy pytać, dlatego konieczne jest przeprowadzenie wstępnych badań jakościowych, które często sprowadzają się do formy wywiadu.

Kolejnym problemem, który pojawia się w kwestii badań to określenie grup fokusowych. Dzięki temu można usłyszeć opinie konkretnych osób, a nawet ich reakcje na opinie innych. Należy jednak podejść do tego krytycznie, bowiem może dojść do sytuacji groupthink – badający nie chcą wyrażać swoich osobistych doświadczeń i zgadzają się z opinią osoby, która jest dominująca w grupie, choć sami myślą inaczej. Innym problemem grup fokusowych jest to, że nie można zgłębić doświadczeń, problemów i myśli danej osoby, a to jest często najcenniejsze w badaniach na etapie znalezienia problemu, który należy rozwiązać.

Przeczytaj także:

Domowe IoT, chmura i media społecznościowe – to główne cele hakerów w 2019 roku

  1. Brak wymiernych korzyści

Takie błędy są najbardziej widoczne na landing page’ach oraz podczas prezentacji produktów. Menadżer jest zachwycony technologią czy interfejsem i sprzedaje go klientowi w postaci ogólnych stwierdzeń, jak np. nowy interfejs czy twórca raportów. Okazuje się, że klienci w takich hasłach nie widzą konkretnych korzyści, jakie oferuje im produkt i dlaczego miałby być w ogóle interesując z perspektywy ich firmy.

  1. Biznesplan to fakty

Tradycyjna definicja biznesplanu określa go jako ideę, która mówi że warto z góry obliczać dochody oraz wydatki produktu i o ile jest to możliwe, to powinno się to odbywać co miesiąc. Z drugiej strony dotyczy to typowej, powtarzalnej produkcji już istniejących produktów. Przy tworzeniu nowego cyfrowego produktu czy usługi, te liczby niestety nie mają nic wspólnego z rzeczywistością. Szczególnie jeśli mowa o rynku cyfrowym, który wciąż się zmienia i ciężko jest go jednoznacznie oszacować.

  1. Mierz siły na zamiary

Osoby, które zaczynały swoje kariery oraz rozwijały się w środowisku korporacyjnym, w momencie gdy przechodzą do kontekstu rynkowego nierzadko próbują stworzyć pierwszą, idealną wersję produktu z duża liczbą funkcji. Kryje się w tym niemożliwość skupienia uwagi na jego wartości oraz odkryciu. Do tego często dochodzi problem, by zamiast wydać prototyp produktu na rynek, menadżer stara się doprowadzić do perfekcji pewne funkcje czy sam system. Z tego powodu dochodzi do stałych opóźnień jego uruchomienia. Dodatkowo, możliwym powodem takiego zachowania może być lęk przed błędem i porażką. Jest to o tyle istotne, że środowisku przedsiębiorców takie sytuacje blokują dalsze możliwości zarządzania efektywnie produktem.

Kluczowym elementem dla wzrostu każdej organizacji jest lepsza koordynacja i komunikacja między menadżerem produktu a innymi obszarami w biznesie. Im sprawniejszy będzie przepływ informacji, tym wyraźniejsza będzie ścieżka do wzrostu. W momencie gdy wszystkie obszary organizacji zaczynają się komunikować, to produkty zaczynają osiągać nowe poziomy doskonałości, co dowodzi o ich dobrym zarządzaniu.

Autor: Andrzej Goleta, Digital Marketing Manager sieci reklamowej Adexon

W założeniach polityki Unii Europejskiej ciągle dominuje walka o poprawę czystości atmosfery widzianej przez pryzmat ilości emitowanego CO2, znajdująca swoje odzwierciedlenie m.in. w odpowiednich dyrektywach. Przed nami zatem wiele trudnych wyborów, a także obowiązek weryfikacji rzeczywistego wpływu dwutlenku węgla na klimat Ziemi.

Podstawowym narzędziem walki o poprawę czystości atmosfery jest niezłomne, acz utopijne dążenie do eliminacji surowców mineralnych z wytwarzania energii i jej nośników, a także z chemicznych i pokrewnych procesów wytwarzania. Kolejnym argumentem przemawiającym za tą drogą realizacji polityki klimatycznej determinującej drogi rozwoju cywilizacji jest wyczerpywanie się złóż tych surowców, wprawdzie w przypadku ropy naftowej odsuwane systematycznie w czasie o kilkadziesiąt lat (jako punkt apogeum wydobycia) i spowalniane przez odkrywanie coraz to nowych złóż łupkowych, piaskowych i konwencjonalnych etc., ale jednak nieuchronne. Radykalni wizjonerzy i wojownicy klimatu domagają się niezwłocznego wprowadzenia zastępczych źródeł i nośników energii, a także surowców dla przemysłu (OZE). Są wśród nich naturalne źródła energii (światło słoneczne, woda, wiatr, a także pławy oceaniczne) i uważana za wszechmocną biomasa, przerabiana do nośników energii na drodze fermentacji aerobowych i anaerobowych (biogaz), zgazowania (przede wszystkim w wariancie ko- z innymi źródłami elementarnego węgla i wodoru), wreszcie w wariantach biologicznych wykorzystujących metabolity mikroorganizmów (algi do otrzymywania oleju i wodoru). Metody te, poza otrzymywaniem biogazu, nie zostały dotąd wiarygodnie zweryfikowane rynkowo (ekonomika, skala, gama otrzymywanych produktów), a ponadto grożą konkurencją z produkcją żywnościową niezwykle istotną w kontekście obserwowanej progresji demograficznej (9 mld ludzi w roku 2050). Przed nami zatem wiele trudnych wyborów, a także obowiązek weryfikacji rzeczywistego wpływu CO2 na klimat Ziemi.

Reklama

Nie ulega jednak wątpliwości, że pomijając ten ostatni element wykorzystanie mineralnych źródeł surowcowych, przede wszystkim do pozyskiwania energii i jej nośników w obecnej postaci istotnie zagraża czystości atmosfery, człowiekowi i środowisku naszej planety w ogóle. Spalanie i termiczne przetwórstwo węgli brunatnych i kamiennych w wielkiej skali jest źródłem cząstek stałych, WWH i ich aerozoli (aerozole miejskie), NOx, SO2 i licznych metali i metaloidów, o co najmniej szkodliwym działaniu na organizmy żywe. Dotyczy to także spalania ropopochodnych, ale także bioolejów w silnikach spalania wewnętrznego czy kotłach. Docelowo te metody pozyskiwania energii, a niekoniecznie przerabiane nimi obiekty pochodzenia mineralnego należy wyeliminować.

Wodór lekiem na całe zło

Gospodarka wodorowa (termin wprowadzony w 1970 roku przez General Motors Co. dla określenia nowego modelu gospodarki opartego na wodorze jako nośniku energii), dziś jako element powszechnej elektromobilności, jest przedstawiana jako jeden z „leków na całe zło”, jakie człowiek czyni sobie, swojemu ożywionemu i nieożywionemu środowisku naturalnemu w pogoni za coraz godniejszym życiem i rozwojem cywilizacyjnym.

Wyjątkowe miejsce w hierarchii czystych nośników energii zawdzięcza wodór temu, że w idealistycznym wariancie może on być otrzymywany wyłącznie z najczystszego bezemisyjnego surowca – wody, w dodatku stale odnawialnego i ogólnie dostępnego na drodze elektrolizy, która w przypadku prowadzenia jej przy użyciu prądu elektrycznego pochodzącego z OZE (wiatr, promieniowanie słoneczne czy energia wody) jest procesem zeroemisyjnym. Z kolei wykorzystanie chemicznej energii wodoru w silnikach wewnętrznego spalania (zarówno wysokoprężnych, jak i o zapłonie iskrowym), czy w ogniwach paliwowych jest również procesem wolnym od emisji GHG. Wydawałoby się zatem, że posiadamy gotowe, niezwykle cenne rozwiązanie pozyskiwania energii.

Gdyby nie fakt, że od wizji powszechnego stosowania paliwa wodorowego, po raz pierwszy sformułowanej przez kapitana Nemo w „Tajemniczej wyspie” Juliusza Verne’a (rok 1874), ciągle dzieli nas (Polskę i świat) kilka głębokich nisz technologicznych i przepaść organizacyjna. W dalszej części tekstu dokonam zestawienia współczesnego stanu posiadania i potencjału gospodarki wodorowej z zadaniami jakie stawia przed sobą świat w trudnym do zdefiniowania obszarze „zrównoważonego rozwoju”.

Największa światowa inicjatywa promująca implementację gospodarki wodorowej – International Partnership for Hydrogen and Fuel Cells in the Economy (IPHE), stanowiąca wzorzec dla organizacji rządowych i ponadrządowych, sformułowała następujące główne zadania warunkujące prowadzenie energetyki wodorowej: badania i rozwój, wytwarzanie wodoru, jego transport i magazynowanie, przepisy i standardy dla paliwa wodorowego, technologie ogniw wodorowych oraz promocja i stwarzanie społecznej aprobaty dla gospodarki wodorowej. Ciągłe nasze zdziwienie budzi traktowanie ogniw paliwowych jako jedynej słusznej technologii konwersji energii chemicznej wodoru na moc, chociaż w przypadku IPHE niewątpliwie wynika to ze struktury zadaniowej inicjatywy.

Spróbujmy określić stopień zaawansowania zadań IPHE w zgodzie z kryteriami zrównoważonego rozwoju.

Mapa drogowa rozwoju zielonych technologii produkcji wodoru

W ujęciu proekologicznym, zawartym na przykład w założeniach wszystkich wariantów elektromobilności wodorowej, wodór powinien być otrzymywany z wody w jednym z efektywnych wariantów elektrolizy przy wykorzystaniu prądu pochodzącego z konwersji OZE, bądź bezpośrednio w procesach chemicznej konwersji biomasy. United States Department of Energy (DOE) przedstawił w pierwszym dziesięcioleciu obecnego wieku mapę drogową rozwoju zielonych technologii produkcji wodoru przy założeniu ceny poniżej 4 USD/kg w dystrybutorze. Perspektywa czasowa mapy uwzględnia efekty średnioterminowe (lata 2020-2030) i długoterminowe (lata 2030-2040). Reforming parowy metanu – najpowszechniej stosowana w wielkiej skali metoda produkcji wodoru – ma być w najbliższej przyszłości (lata 2020-2030) zastępowana w wielkiej skali przez zgazowanie biomasy, a w formie rozproszonych źródeł H2 przez elektrolizę zasilaną z OZE.

Rozwiązania scentralizowane na średnioodległą przyszłość to elektroliza wody zasilana z wiatraków włączonych do centralnej sieci średnionapięciowej, zgazowanie węgla(!) połączone z sekwestracją (najlepiej) chemiczną CO2 i wreszcie fotoelektroliza wody przy użyciu energii solarnej. Rozwiązanie rozproszone dla tego okresu to paliwa ciekłe z procesów fermentacji i wodór z mikrobiologicznej konwersji biomasy.

Rozwiązania dla okresu po roku 2030 to wysokotemperaturowa elektroliza wody w wielkiej skali (wspomagana ciepłem z HTR) i również prowadzona w wielkiej skali fotoliza wody. W wizji tej średnioodległą przyszłość określa się jako fazę biomasy, a tę po roku 2030 jako fazę solarną. Oczywiście fazy zastosowań poszczególnych technologii i wykorzystania określonych surowców nie są w tej genealogii oddzielone ostrymi granicami czasowymi (chociaż mogą do tego doprowadzić odpowiednie regulacje prawne, analogicznie do tego, co obserwujemy obecnie w prawodawstwie Unii Europejskiej odnośnie strategii zagospodarowania odpadów).

Vincent Van Gogh napisał kiedyś w liście do swojego brata Theo, że „postęp nie następuje skokowo, a jest sumą wielu małych kroków”. Ta chętnie przytaczana opinia jest w rozwoju wielu dziedzin techniki i w ogóle cywilizacji wygodnym alibi. Usprawiedliwia bowiem, dlaczego rozwiązania zaproponowane przed kilku czy kilkunastu laty jako wielomilowe kamienie rozwoju tych dziedzin są na tym samym lub bliskim poziomie doskonałości praktycznej, co w momencie, kiedy je ogłaszano. Przecież wykonano tak wiele kroków, tj. zrealizowano tysiące projektów. Dotyczy to również szeregu rozwiązań znajdujących się na diagramie DOE i w strategii IPHE.

Zanim je zanalizujemy, należy podkreślić, że wypieranie z biegiem lat fazy biomasy przez fazę solarną jest logiczne, chociaż uzasadnienie tego nie leży wcale w przewidywanym intensywnym rozwoju technik i technologii pozwalających efektywnie przeprowadzać konwersję energii słonecznej na moc użytkową. Moim zdaniem, biomasa zniknie w niedalekiej przyszłości z listy źródeł surowców i nośników energii w ramach podporządkowania absolutnemu priorytetowi rozwoju cywilizacji – wyżywieniu rozrastającej się w niektórych regionach świata niemal wykładniczo populacji. Niezbyt przyjazną, chociaż skuteczną wizję nowego wykorzystania areałów rolnych i nieużytków, zmiany charakteru upraw oraz wykorzystania odpadów rolnych jako bazy żywieniowej przedstawiono ostatnio w kolportowanej w UE „strategii fińskiej”. Wróćmy jednak do rozwiązań z roadmap OED odsuwanych w czasie jako cele bliższej lub dalszej przyszłości.

Masowe zgazowania biomasy

Procesy zgazowania biomasy były już od wczesnych lat dziewięćdziesiątych ubiegłego wieku prezentowane w wersji pilotowej (Schwarze Pumpe, Carbo-V, Silva Gas etc.), podobnie jak kompleksowe koncepcje biorafinerii (na przykład ECN). Ciągle jednak pozostają w stadium wizji i koncepcji propagandowych, a są nieobecne chociażby, co pokażemy poniżej, pośród technologii masowego pozyskiwania wodoru.

Główne ograniczenia masowego stosowania zgazowania biomasy leżą, co było oczywiste od zarania prób nad jego wykorzystaniem, w niejednorodności i zmienności strumienia surowcowego, dużej i zmiennej zawartości w nim wilgoci, a zatem konieczności wstępnej standaryzacji wsadu (problem zawartości wody próbuje się usunąć w niestety kosztownym wariancie gazyfikacji wodą w stanie nadkrytycznym), w korozyjnym charakterze środowiska reakcyjnego, w zanieczyszczeniach otrzymywanego gazu wodorowego węglowodorami, a przede wszystkim produktami smolistymi, wreszcie w koszmarnym dla odpowiedzialnych za ochronę środowiska składzie wód poprocesowych, o wskaźnikach gorszych od ścieków rafineryjnych. Wymienione progi można oczywiście pokonać, jednak kosztochłonność takich działań jest jasna dla każdego technologa i trudno oczekiwać tu wyraźnej tendencji spadkowej.

Osobne zagadnienie to problem skali, w tej wielkiej, niezbędnej dla układów scentralizowanego wytwarzania H2, pojawia się problem logistyki i składowania obwarowanego bardzo rygorystycznymi regulacjami prawnymi.

Autor niniejszego tekstu jest od dawna orędownikiem ko-zgazowania różnych strumieni węglopochodnych (odpady komunalne, biomasa, węgle niskiej jakości, odpady tworzyw polimerowych etc.) po wstępnej toryfikacji rozwiązującej wiele problemów procesowych, logistycznych i składowania. Jednak niepowodzenia ekonomiczne na przestrzeni wielu już lat prób wielkotonażowej (powyżej 70 tys. t/rok) w niemieckiej Schwarze Pumpe obok Merseburga, będącej pionierską instalacją ko-zgazowania nakazują zachowanie dystansu wobec realności szerokiej implementacji praktycznej takiego rozwiązania.

Prąd z energii wiatru wcale nie jest „za damo”

Elektroliza wody zasilana prądem pochodzącym z siłowni wiatrowych włączonych do sieci krajowej to kolejny etap w sekwencji czasowej niekonwencjonalnych technologii pozyskiwania wodoru wg ODE i IPHE. Jego główna zaleta to całkowita bezemisyjność, zarówno z punktu widzenia kontrowersyjnego CO2, jak i rzeczywiście nieprzyjaznych emisji, lotnych związków organicznych, WWH, aerozoli, cząstek stałych etc., charakteryzująca etap pozyskiwania energii elektrycznej i etap elektrochemiczny.

Proces elektrolizy odznacza się jednak wysoką konsumpcją prądu, pomimo wieloletniego rozwoju ciągle jeszcze dosyć niską sprawnością i wysokimi kosztami produkcji. Z kolei prąd elektryczny pochodzący z konwertowanej w wiatraku energii wiatru wcale nie jest „za darmo”, jak głoszą od lat wizjonerzy ekologiczni i inwestorzy wykorzystujący boom zrodzony z wizji zrównoważonego rozwoju. Sprawność energetyki wiatrowej bardzo zależy od wysokości wiatraków, róży wiatrów w ich lokalizacji i jest równie chimeryczna jak warunki atmosferyczne w naszej szerokości geograficznej.

Jak policzyliśmy wspólnie z A. Kędziorą, wyprodukowanie tony wodoru na godzinę wymaga działania 26 wysokosprawnych wiatraków, trudno zatem mówić o rozproszonej wysokotonażowej produkcji tego nośnika energii. Za realne można natomiast przyjąć rozwiązanie, w którym układ 2 wiatraków zasila modułowy elektrolizer zabezpieczający zapotrzebowanie wodorowej stacji dystrybucyjnej wydającej około 100 kg wodoru na dobę, tj. ilość odpowiadającą wymaganiom obsługi „autostrady wodorowej” dziś i w najbliższej przyszłości. Przewiduje się, że po roku 2030 wydajność takich stacji wzrośnie do 300 kg/dobę, co także mogłoby być pozyskiwane w lokalnych elektrolizerniach wiatrowych.

Nierozwiązanym problemem jest niestety wysoka cena pozyskiwanego wodoru znacząco przewyższająca cenę H2 pozyskiwanego z surowców mineralnych, nawet produkowanego w wytwórniach scentralizowanych, gdzie jest ona dodatkowo obciążona kosztami transportu/przesyłania i magazynowania.

Jedynie około 4% wytwarzanego na świecie wodoru jest produktem elektrolizy. Wysokie koszty procesu powodują, że jego stosowanie jest ukierunkowane w przeważającej części na otrzymywanie wodoru dużej czystości. Postęp w rozwoju metod elektrolizy jest intensywny. Od szeregu lat z klasycznymi elektrolizerami alkalicznymi konkurują na rynku elektrolizery membranowe (Proton Exchange Membrane Electrolysis, PEM) produkowane przez szereg renomowanych firm, jak Simens, Hydrogenics, Giner Electrochemical System, czy H-TEC Systems. Elektrolizery te są drogie, ze względu na koszt katalizatorów z metali szlachetnych, membran i stosowania do budowy aparatów materiałów o wysokiej odporności na korozję. Ekonomikę procesu PEM pogarsza dodatkowo stosowanie większych gęstości prądowych niż e elektrolizerach alkalicznych.

Kolejnym kierunkiem rozwoju w poszukiwaniu wzrostu sprawności elektrochemicznego rozkładu wody jest elektroliza w ogniwach tlenkowych, zawierających stały elektrolit, w którym mogą się poruszać tylko niektóre jony (w tym przypadku protony). Elektrolizery ze stałymi tlenkami jako elektrolitami mogą pracować w wysokich temperaturach, a zgodnie z termodynamiką zużycie prądu elektrycznego w procesie elektrolizy maleje ze wzrostem temperatury. Tego typu elektrolizery były pioniersko stosowane w Niemczech jeszcze w latach siedemdziesiątych XX w. Milowym krokiem w ich rozwoju miało być pod koniec lat osiemdziesiątych XX w. odkrycie przez Ivaharę właściwości przewodzenia protonów przez perowskity typu ABO3 (mieszane tlenki baru lub strontu i ceru lub cyrkonu).

W elektrolizerach perowskitowych przewodząca protony membrana jest nieprzepuszczalna dla jonów tlenkowych i cząsteczkowych gazów. Sprawność prądowa tych układów może sięgać 95%. Dodatkowo elektrolizery te w temperaturach 750-900°C mogą być wykorzystane do realizacji mieszanej elektrolizy H2O i CO2 (w tym zakresie temperatur DG elektrolizy wody jest porównywalne z DG elektrolizy ditlenku węgla) prowadzącej do gazu syntezowego, którego skład można komponować regulując proporcję strumieni H2O i CO2.

Co z czwartą zasadą termodynamiki?

Walther Nernst, noblista z Wąbrzeźna, miał powiedzieć: „Pierwszą zasadę termodynamiki znaleźli Mayer, Joul i Helmholz, drugą sformułowało 2 fizyków – Clausius i Thompson. Trzecią zasadę odkryłem ja. Jak więc widać, czwarta zasada nie istnieje”. Ignorując drugą zasadę termodynamiki, wyznaczającą na przykład przepaść, jaka dzieli propagandowy model „gospodarki o obiegu zamkniętym” od możliwości jej dosłownej realizacji, nawet przy największym zaangażowaniu emocjonalnym i sukcesie organizacyjnym, wizjonerzy, entuzjaści ekorozwoju, a przede wszystkim twórcy niekonwencjonalnych proekologicznych rozwiązań procesowych zakładają, że przyszłość przyniesie wraz z postępem możliwość zignorowania termodynamicznych fundamentów spójności świata. To jest możliwe w fotochemii i chemii jądrowej, ale dla koncepcji technologicznych opartych na klasycznych procesach chemicznych i biologicznych nowej furtki realizacyjnej, a więc swoistej czwartej zasady nie należy oczekiwać.

Dotyczy to również perspektyw rozwoju elektrolizy. Standardowy potencjał tworzenia wody wynosi 1,48 V, w zoptymalizowanych warunkach nowoczesny elektrolizer membranowy czy alkaliczny działa przy napięciu 2,0 V i gęstości prądowej 2,00 Acm-2. W porównaniu z 1,49 V, około 1,35 razy wyższe napięcie stosowane w wytwarzaniu wodoru w procesie elektrochemicznym daje sprawność nie przekraczającą 75%. W bilansie „od elektrolizy do koła pojazdu” należy jeszcze dodać straty związane ze sprężaniem lub skraplaniem wodoru, jego magazynowaniem, transportem, wreszcie przetworzeniem jego energii w silniku bezpośredniego spalania lub ogniwie paliwowym. W efekcie uzyskujemy nakład energetyczny 1,6-2 razy większy od uzysku energii w maszynie napędzającej pojazd.

Tym samym dochodzimy do stwierdzenia, że elektroliza może stać się racjonalnym źródłem paliwa dla pojazdów jedynie w przypadku taniego źródła prądu elektrycznego, a wobec wymogów kryteriów „zrównoważonego rozwoju” źródła wywodzącego się z OZE, bądź z siłowni jądrowych. A zatem, postęp w obniżaniu ceny 1 kWh prądu o etykiecie OZE jest na dziś o wiele bardziej istotny niż postęp w technologii elektrolizy. Kiedy jednak cena energii elektrycznej (pamiętajmy o jej systemowym uśrednianiu) przekroczy dolne bariery, to jaki będzie sens zamiany prądu w inny nośnik energii w jakichkolwiek zastosowaniach?

Współcześnie, za przyszłe rozwiązania alternatywne dla pozyskiwania wodoru z wody w stosunku do elektrolizy uważa się fotoelektrolizę i termolizę. Oba mają poważne ograniczenia, w pierwszym przypadku najbardziej istotnym jest brak odpowiednich materiałów fotoelektrodowych – najlepszy znany fotokatalizator TiO2 jest bezużyteczny ze względu na wysokie nadnapięcie wydzielania H2 na jego powierzchni, inne, jak związki arsenu, są toksyczne, a pozostałe (np. ZnO, poza tym wybór jest na razie niewielki) niewystarczająco aktywne. Termoliza wody jest procesem niekorzystnym termodynamicznie i wymagającym bardzo wysokich temperatur (ilościowo zachodzi przy takim wspomaganiu jak podczas katastrofy w Czarnobylu).

Zgazowania węgla perspektywą pozyskiwania nośników energii

Zgazowanie węgla, moim zdaniem proces o ogromnym potencjale, jest mimo wszystko przez twórców światowego drogowskazu implementacji gospodarki wodorowej widziany jako dominujący proces wytwarzania H2 na przełomie lat trzydziestych i czterdziestych obecnego wieku. Wprawdzie obciążony narzutem CCS (z sekwestracji podziemnej CO2 UE wycofała się 2 lata temu, wobec tego prawdopodobnie skazany na tzw. sekwestrację chemiczną, pod prąd termodynamiki), proces zgazowania węgla musi być dla świata perspektywą pozyskiwania nośników energii do czasu znalezienia nowych źródeł energii, dziś jedynie przewidywalnych, jak fuzja (niekoniecznie zimna) jądrowa czy opanowanie efektywnej konwersji energii naszej gwiazdy (niekoniecznie w formie naziemnej fotowoltaiki).

Szkoda, że nasze władze rządowe ogłosiły ostatnio deklarację od odejścia od technologii węglowych w dodatku obarczoną nie do końca chyba słuszną tezą, że rodzime zapasy węgla wystarczą na 30 lat. Niepriorytetowe traktowanie czystych technologii węglowych doprowadzi do pogłębienia się luki technologicznej w stosunku do światowych liderów, a w tym przypadku jest to nieuzasadnione (tradycje rozwojowe polskiej karbochemii, kilkakrotne już podejścia do uruchomienia tego procesu w wielkiej skali, ostatnio w Oświęcimiu, ostatnie projekty realizowane w Instytucie Chemii i Przetwórstwa Węgla i GIG etc.) i szkodliwe (dziewiąte w świecie zasoby węgla kamiennego to jednak narodowy skarb i posag na drogę zrównoważonego rozwoju). Tu warto zwrócić uwagę, że tłamszeni unijną krytyką dotyczącą stanu naszej atmosfery staramy się ograniczać aktywność gospodarczą związaną z węglem kamiennym, podczas gdy rzeczywistymi trucicielami są węgiel brunatny (najbrudniejszy nośnik energii) i zawierające go stałe paliwa odpadowe.

Zgazowanie węgla i ciężkich pozostałości rafineryjnych to w świecie już klasyka (blisko dwadzieścia procent produkcji wodoru). Z kolei wariant podziemny (wymyślony przez Siemensa jeszcze w 1867 roku), skierowany początkowo do kopalni, w których występowały trudności wydobycia węgla metodami konwencjonalnymi, lansowany szeroko w wizji zrównoważonego rozwoju to typowy oddalający się cel.

Mendelejew napisał w 1888 roku po zwiedzeniu kopalń w Zagłębiu Donieckim: „nadejdzie zapewne taka epoka, że węgla nie trzeba będzie wydobywać i będzie go można tam, w głębi ziemi przetwarzać na palne gazy, które rurami można przekazywać na duże odległości”. I rzeczywiście, poważne implementacje praktyczne proces przeżył w latach trzydziestych właśnie w kopalniach Zagłębia Donieckiego i Kuźnieckiego w ZSRR.

Bez wielkich sukcesów od tamtego czasu najciekawsze rozwiązania nie wychodzą poza skalę dużych pilotów. Zlokalizowany, kontrolowany podziemny pożar złoża, jakim jest w istocie podziemne zgazowanie, stanowi ekstremalne wyzwanie dla geologii, technologii, bezpieczeństwa procesowego i ochrony środowiska. Wydaje się, że zdecydowanie bardziej efektywnym kierunkiem wykorzystania potencjału intelektualnego, technicznego i technologicznego będzie położenie nacisku na problem jak optymalnie poprowadzić ten proces w naziemnym generatorze (najlepiej w układzie kogeneracyjnym), a nie na odpowiedź na pytanie: jak w ogóle poprowadzić go bezpośrednio w złożu.

Na pewno zadaniem na przełom lat trzydziestych i czterdziestych XXI w. jest poligeneracja – zgazowanie węgla połączone z reformingiem parowym metanu. W tym obszarze najbardziej ambitnym, ale i najbardziej efektywnym rozwiązaniem jest integracja w jednym generatorze procesów CGTL (coal and gas to liquid), CTL (coal to liquid) i GTL (gas to liquid). Zalety takiego rozwiązania to efektywne wykorzystanie energii cieplnej, zmniejszenie zapotrzebowania na tlen, a nawet możliwość wykorzystania katalitycznych własności popiołów ze zgazowania węgla w reformingu metanu.

Bez wątpienia, o czym już wielokrotnie pisałem, najbardziej efektywnym sposobem wykorzystania odpadów masowych tworzyw polimerowych (poliolefiny, PVC) jest ich zgazowanie, także w wersji kogeneracji w procesach ze zgazowaniem węgli, a nawet z odpadami komunalnymi. Zawartość wodoru w odpadach polimerowych jest wysoka, porównywalna z ciężkimi frakcjami ropy naftowej, odpady te stanowią wobec tego atrakcyjne wzbogacenie każdego wsadu do procesu gazyfikacji.

Przyszłość z gazem koksowniczym

Gaz koksowniczy i przemysłowe gazy odpadowe są źródłem wodoru o dużym lokalnym znaczeniu praktycznym. Zawartość wodoru w gazie koksowniczym sięga ok. 55%, gazy wodorowe z pirolizy i krakingu katalitycznego zawierają 60-85% H2, gazy wydmuchowe z hydrorafinacji – 23-35% H­2, gazy wydmuchowe z produkcji NH­3 zawierają około 60% H2. Obecnie wykorzystywane są one w większości jako gazy opałowe o średniej jakości, a niektóre z nich (wydmuchowe gazy rafineryjne) są wręcz spalane w pochodniach.

Dotychczas istotnym ograniczeniem pozyskiwania wodoru z gazów odpadowych jest bariera rentowności wykorzystania procesu PSA (pressure swing adsorption) do wydzielania H2 ustawiona na poziomie zawartości około 70% w strumieniu. Wprawdzie przemysłowych gazów odpadowych nie umieszczono w agendach DOE i IPHE, nie ma jednak wątpliwości, że gaz koksowniczy będzie towarzyszył hutnictwu stali dużo dłużej niż do lat czterdziestych obecnego wieku, podobnie jak dużo dłużej trwało będzie wytwarzanie na wielką skalę paliw z ropy naftowej i produkcja amoniaku, a także wytwarzanie metanolu (nie wymienialiśmy go wcześniej, bo CH3OH nie jest niestety wytwarzany w Polsce; gaz wydmuchowy w procesach jego produkcji zawiera 70-80% H2).

Rozkład wody przy użyciu zielonych alg?

Udział procesów biologicznych w produkcji wodoru jest znaczący wg wytycznych DOE i IPHE dla okresu solarnego. Wykorzystanie mikroorganizmów w rozkładzie wody może mieć charakter bezpośredniej biofotolizy, kilkuetapowej biofotolizy niebezpośredniej, fotofermentacji, bioelektrolizy, a także ciemnej fermentacji. Od wielu już lat w procesach tych pokłada się wielką nadzieję jako w efektywnym sposobie konwersji energii Słońca docierającej do powierzchni Ziemi. Kilkanaście lat temu w USA próbowano wdrożyć na wielką skalę rozkład wody przy użyciu zielonych alg i cyjanobakterii. Proces ma jednak znaczące ograniczenia, wymaga anaerobowych warunków (prężność tlenu poniżej 0,1%) i nawet na nasłonecznionych obszarach charakteryzuje się niską sprawnością konwersji pochłoniętego promieniowania słonecznego.

W znacznie bardziej złożonym procesie biofotolizy niebezpośredniej z udziałem cyjanobakterii i alg, powstająca pierwotnie w procesie fotosyntezy biomasa w etapie ciemnej anaerobowej fermentacji w komórkach alg jest przekształcana w glukozę i kwas octowy, ten drugi rozkładany następczo do wodoru. Etapy anaerobowe procesu są bardzo czułe na tlen, w procesie wydzielają się znaczące ilości CO2, a efektywność wykorzystania energii słonecznej jest równie niska jak w przypadku fotolizy bezpośredniej.

Duże oczekiwania od lat wiąże się z procesem fotobiologicznego rozkładu związków organicznych, takich jak białka, kwasy tłuszczowe czy sacharydy w metabolizmie purpurowych bakterii bezsiarkowych (Pure Non-Sulphur Bacteria, PNS). Proces ten, znany od lat czterdziestych XX w., ciągle nie doczekał się implementacji praktycznej.

W materiałach propagandowych dotyczących wykorzystania metod biotechnologicznych w procesach wytwarzania wodoru wielokrotnie wymienia się bioelektrolizę (Microbial Elcstrolysis). Ten elegancki w koncepcji proces polega na utlenianiu związków organicznych na pokrytej biofilmem bakteryjnym anodzie. Powstające w procesie protony, po przejściu przez selektywną porowatą przegrodę, wydzielają się na platynowej katodzie elektrolizera. Szereg szczepów bakteryjnych takich jak Geobacter, Clostridium, Desulfuromonas, Pseudomonas czy Klebsiella może być wykorzystanych w tym połączeniu zdolności metabolicznych bakterii z klasyczną elektrolizę. Surowcem dla procesu mogą być ścieki komunalne lub odpady pofermentacyjne. Wewnątrzkomórkowy transport elektronów w filmie bakteryjnym do powierzchni platynowej elektrody pozwala obniżyć wartość napięcia niezbędnego do przebiegu elektrolizy (do około 1,2 eV).

Biologiczne metody pozyskiwania wodoru, od lat urzekają elegancją i koncepcyjną prostotą rozwiązań. Dlaczego zatem w agendach implementacji metod wolnych od surowców mineralnych zajmują tak odległe w czasie miejsce, skoro już na przełomie wieków, wraz z pojawieniem się koncepcji wodoryzacji energetyki wskazywano na ich znaczący potencjał i bliską gotowość implementacji.

Prawdopodobnie jest to wynik negatywnych doświadczeń z innymi masowymi wdrożeniami biotechnologii, przede wszystkim niepowodzenia obiecywanego już 15 lat temu masowego procesu alkoholowej fermentacji celulozy. Owszem, potrafimy realizować ten proces, ale w niewielkiej skali i zamiast w warunkach zbliżonych do fermentacji skrobi, jedynie w kosztownej wersji, przy użyciu wyizolowanych enzymów. Kolejnym niepowodzeniem była produkcja olejów przez algi.

Termodynamika elektrolizy a termodynamika życia

Nie ma żadnej wątpliwości, że będące obiektem zainteresowania wytwórców i użytkowników wodoru wymienione procesy biotechnologiczne są kosztochłonne dziś i prawdopodobnie jeszcze dosyć długo będą. Kondycja mikroorganizmów podejmujących wyzwania produkcyjne wymaga kontrolowanego środowiska, nieobecności tlenu w etapach anaerobowych, a nawet stabilności naświetlania. Bez wątpienia są one trudniejsze do realizacji niż z sukcesem powszechnie stosowana anaerobowa fermentacja metanowa. I jeszcze termodynamika. Wprawdzie, jak wspomniano wcześniej, ścieżka biologiczna pozwala oszukać klasyczną termodynamikę elektrolizy, jednak ciągle do pokonania pozostaje bariera „termodynamiki życia”. W większości wymienionych wcześniej procesów decydującą rolę odgrywają etapy metaboliczne. Zwiększenie ich produktywności jest celem rozwiązań technologicznych, ale celem całego życia na Ziemi, od pojedynczych komórek począwszy, jest obniżenie entropii, a nie maksymalizacja wydajności procesów metabolicznych. Ta sprzeczność interesów decyduje o tym, że drożdże wytwarzają wino, a nie dużo bardziej pożądaną wódkę, że trudno jest zmusić algi do wytwarzania znaczących ilości oleju, że nie potrafimy przy użyciu biomasy drobnoustrojów hydrolizować bezpośrednio celulozy i przede wszystkim, że zwiększenie stężenia produkowanych metabolitów zabija ich wytwórców. Pokonanie tej bariery to największe wyzwanie dla implementatorów biotechnologicznego otrzymywania chemikaliów masowych, w tym także wodoru.

***

„Obok Orła znak Pogoni, poszli nasi w bój bez broni…” – to fragment „W krwawym polu” pięknej patriotycznej pieśni Wincentego Pola (1915 r.), która miała podtrzymać ducha patriotycznego żołnierzy polskich na polach bitewnych Wielkiej Wojny i tych, którzy ich wspierali na liniach frontów. Był on melancholiczną oceną przewagi serca nad umysłem w przeszłych i przyszłych zrywach wyzwoleńczych naszego narodu.

Zachowując wielki szacunek dla okoliczności, w których powstał i sprawy, której dotyczył można go doskonale odnieść do obudowanych regulacjami prawnymi celów i sposobów światowej walki o powstrzymanie zmian klimatu Ziemi, a także do agend czasowych i road maps jej realizacji. Sprawa jest wielka, chociaż możliwości wpływu człowieka na bieg rzeczy są według autora znacząco przeceniane. Niezależnie od tego proponowane rozwiązania, a przede wszystkim konieczne w nieodległej perspektywie czasowej znaczące ograniczenie stosowania paliw (w tym materiałów pędnych) pochodzenia mineralnego, są w realistycznej ocenie pozbawione narzędzi. Dotyczy to również gospodarki wodorowej.

Wbrew deklaracjom twórców bezemisyjnych technologii i ich implementatorów w praktyce, a także opiniom polityków i mediów, poziom doskonałości technologicznej tych procesów jest odległy od wymaganego dla konwencjonalnych technologii standardu i w wielu przypadkach nie będzie mógł być poprawiony (termodynamika).

Przede wszystkim żadne z proponowanych na przyszłość rozwiązań nie spełnia podstawowej zasady kapitalizmu – uzyskania bezwzględnego dodatniego efektu ekonomicznego (zostanie to szczegółowo wskazane w drugiej części niniejszej analizy). Większość z nich w szerokim zakresie granic bilansowania, nie poprawia stanu środowiska naturalnego i pozostawia znaczący ślad węglowy.

Tak jak w naszych zrywach narodowowyzwoleńczych są również straty: realizowana polityka klimatyczna (koszty emisji i sekwestracji) zahamowała znacząco dalszy rozwój konwencjonalnych metod pozyskiwania wodoru, które i tak na długo pozostaną jedynymi możliwymi, choć niekoniecznie słusznymi; nacisk na zastępowanie konwencjonalnych materiałów pędnych biopaliwami przyczynił się do wzrostu cen żywności w niektórych regionach świata (np. kukurydzy i soi w USA), a plantacje trzciny cukrowej dedykowane produkcji etanolu wypierają lasy deszczowe w Brazylii. Takie przykłady można by mnożyć.

Autor niniejszej analizy jest głęboko przekonany o decydującym wpływie niestabilności słońca na klimat naszej planety. Nie ma to żadnego wpływu na dyskusję przeprowadzoną w niniejszej analizie. Daje jednak pewną satysfakcję przy wykorzystaniu pradawnej mądrości ludowej jako przestrogi dla bezwarunkowej realizacji koncepcji gospodarki wodorowej. Przy obecnym stanie wiedzy nie porywajmy się z motyką na słońce.

Zachęcam do lektury drugiej części opracowania poświęconej perspektywom (elektro)mobilności wodorowej.

Proces zgazowania węgla musi być dla świata perspektywą pozyskiwania nośników energii do czasu znalezienia nowych źródeł energii, dziś jedynie przewidywalnych

Biomasa zniknie w niedalekiej przyszłości z listy źródeł surowców i nośników energii w ramach podporządkowania absolutnemu priorytetowi rozwoju cywilizacji

 

Wyprodukowanie tony wodoru na godzinę wymaga działania 26 wysokosprawnych wiatraków, trudno zatem mówić o rozproszonej wysokotonażowej produkcji tego nośnika energii

Jacek Kijeński

Instytut Chemii Przemysłowej im. prof. Ignacego Mościckiego

Wydział Budownictwa, Mechaniki i Petrochemii, Politechnika Warszawska Filia w Płocku

Artykuł ukazał się w magazynie “Energetyka Cieplna i Zawodowa” nr 6/2018. Tematyka publikacji poruszana jest na konferencji Ochrona Środowiska. Energetyka. Ciepłownictwo. Przemysł. 19-20 lutego Katowice.

 

 

Według raportu Metrohouse i Expandera w ostatnich tygodniach 2018 r. ceny mieszkań na rynku wtórnym przestały rosnąć. Stawki podawane w ofertach są już tak wysokie, że skutecznie odstraszają wielu potencjalnych nabywców. Ponownie staniały natomiast kredyty hipoteczne, ale tylko te, dostępne dla osób posiadające ponad 20% wkładu własnego.  Średnia marża dla tego rodzaju kredytów wynosi już tylko 2,01%. Warto dodać, że gdyby nie podatek bankowy, to wynosiłaby ok. 1,66%.

Końcówka roku pod znakiem stabilizacji

– W żadnym z analizowanych siedmiu miast nie zauważyliśmy tym razem znaczących podwyżek cen mieszkań nabywanych na rynku wtórnym. Nie wiadomo jeszcze, czy przez klientów kupujących został osiągnięty „próg bólu”, ale jak wiadomo, ceny mieszkań nie będą rosły w nieskończoność, mówi Marcin Jańczuk z Metrohouse. Na rynku używanych mieszkań można mówić o pewnego rodzaju działaniach rozpoznawczych wśród sprzedających. Ceny w ofertach mogą przyprawiać o zawrót głowy, ale nie każda wycena mieszkania do sprzedaży spotyka się z aprobatą kupujących i nawet przy obserwowanym dużym popycie na mieszkania, zbyt wysokie wyceny prowadzą do osłabienia zainteresowania ofertami.

Zobacz też:

Gdzie w Polsce buduje się najwięcej domów i mieszkań?

Paraliżu transakcyjnego nie będzie

Od stycznia 2019 staliśmy przed ryzykiem znacznego spowolnienia transakcyjnego w przypadku sprzedaży nieruchomości na gruntach w użytkowaniu wieczystym. Wynika to z wejścia w życie ustawy przekształcającej użytkowanie wieczyste we własność. – Zator w transakcjach mógł być mocno widoczny, bowiem pierwotnie ustawa wskazywała okres dwunastu miesięcy na wydanie zaświadczenia o przekształceniu. Takie zaświadczenie będzie niezbędne, aby sprzedać mieszkanie. Po nowelizacji w ustawie znalazł się zapis, iż stosowne zaświadczenie, będzie wydawane w ciągu 30 dni w przypadku, gdy podstawą wydania będzie zbliżająca się transakcja, mówi Marcin Jańczuk z Metrohouse. Ta informacja zapewne uspokoi potencjalne strony transakcji.

Podatek bankowy podwyższa koszt kredytu o 14 tys. zł…

Przez większość tego roku koszt kredytów hipotecznych pozostawał stabilny. Dopiero w IV kwartał przyniósł obniżki marż, ale dotyczyły one przede wszystkim kredytorów w wkładem własnym przekraczającym 20%. W grudniu średnia marża dla tego rodzaju kredytów spadła do 2,01%, co jest najniższą wartością od początku 2016 r., czyli od czasu wprowadzenia podatku bankowego. – Kredyty hipoteczne są obecnie dość tanie, ale gdyby podatek bankowy nie obowiązywał, to byłyby jeszcze tańsze. Wtedy średnia marża wynosiłaby tylko ok. 1,66%. Oprocentowanie kredytu zamiast 3,73% wynosiłaby więc ok. 3,38%. W przypadku przeciętnego kredytu (250 000 zł na 25 lat) podatek podwyższa więc koszt kredytu o 14 124 złkomentuje Jarosław Sadowski, ekspert Expandera.

… ale zabezpiecza przed nadmiernym wzrostem cen mieszkań

Warto jednak dodać, że choć podatek bankowy oznacza dodatkowe koszty dla kredytobiorców, to z drugiej strony mógł nas też uchronić przed nadmiernymi wzrostami cen mieszkań. Kredyty hipoteczne są dość tanie, co w połączeniu z dobrą sytuacją na rynku pracy spowodowało istotny wzrost popytu na mieszkania i odczuwalny wzrost ich cen. – Gdyby oprocentowanie było jeszcze niższe, to mogłoby jeszcze bardziej nakręcić koniunkturę na rynku nieruchomości, doprowadzając do jeszcze większych wzrostów cen mieszkańdodaje Jarosław Sadowski z Expandera.

Według Eurostatu od 2013 r. do II kw. 2018 r. ceny mieszkań w Irlandii ceny wzrosły o 76%, na Węgrzech o 54%, a w Czechach o 37%. U nas w tym okresie wzrost wyniósł 15% i był jednym z najmniejszych w Unii Europejskiej. Dane NBP za III kw. pokazują, że ostatnie wzrosty sprawiły, że ceny są już o ok. 20% wyższe niż w 2013 r. To wciąż mniej niż w większości krajów UE. Miejmy jednak nadzieję, że gdy przyjdzie spowolnienie na rynku nieruchomości, rządzący zlikwidują podatek, aby wspomóc koniunkturę.

Źródło: mat. prasowy

Rok 2019 będzie stał pod znakiem konsolidacji grup cyberprzestępczych, które w swoich działaniach wykorzystają sztuczną inteligencję. Najpopularniejszym celem ataków staną się urządzenia IoT zlokalizowane w prywatnych domach, smartfony, media społecznościowe oraz dane zmagazynowane w chmurze – przewidują specjaliści McAfee w raporcie McAfee Labs 2019 Threats Predictions Report.

– W roku 2018 byliśmy świadkami coraz lepszej współpracy między cyberprzestępcami, którzy usprawniali swoje technologie i taktyki działania – mówi Arkadiusz Krawczyk, Country Manager w McAfee Poland. – Ta tendencja będzie się utrzymywać także w 2019, jednak najbliższa przyszłość przyniesie też nowe sposoby zabezpieczeń i sojusze po stronie firm takich jak nasza.

Cyberprzestępcze podziemie

Cyberprzestępcy rozwijają rynek oprogramowania jako usługi (software as a service), oferując sprzedaż ataków w formie komponentów gotowych do wykorzystania. Dzięki temu nawet hakerzy z niewielkim doświadczeniem i małymi umiejętnościami mogą skutecznie atakować. Ten trend będzie się utrzymywał w 2019 roku, co przełoży się na konsolidację grup przestępczych. Gangi cybernetyczne będą ściśle współpracować z czołowymi dostawcami takich usług jak pranie pieniędzy czy ataki z wykorzystaniem luk w zabezpieczeniach.

Obserwując rozmowy prowadzone w podziemnej społeczności, można wywnioskować, że w 2019 r. zintensyfikowane zostaną działania w obszarze złośliwego oprogramowania mobilnego, botnetów, oszustw bankowych, ransomware i prób obejścia uwierzytelnienia dwuskładnikowego.

Zobacz też:

System alarmowy Twojej firmy na smartfonie? Zobacz, jakie daje on możliwości

Łatwiejsze cyberataki dzięki szybkiemu dostępowi do technologii

Ponieważ zabezpieczenia stosowane w firmach i organizacjach są coraz bardziej wyrafinowane, również cyberprzestępcy muszą wykazywać się większą kreatywnością. Dostępność ataków w formie gotowych komponentów pozwoli atakującym integrować ze sobą znane taktyki i technologie oraz rozszerzać zakres ich działania, aby realizować nowe cele.

• Sztuczna inteligencja a techniki unikania: Dzięki sztucznej inteligencji cyberprzestępcy mogą automatyzować wybór celu, skanować sieć w poszukiwaniu luk i oceniać kondycję oraz szybkość reakcji zainfekowanych środowisk. Wszystko po to, aby uniknąć wykrycia przed przejściem do kolejnych etapów ataku.

• Dezinformacja w służbie cyberprzestępców: Boty do rozprzestrzeniania fałszywych komunikatów już powstały i można je kupić w cyberprzestępczym podziemiu. Idąc w ślad za niedawnymi niechlubnymi kampaniami państw, mającymi na celu wpływanie na opinię publiczną, cyberprzestępcy prawdopodobnie przystosują boty i użyją mediów społecznościowych przeciwko znanym firmom. Będą zamieszczać nieprawdziwe informacje na ich temat i żądać okupu za zaprzestanie takich działań.

• Integracja ataków: Przewiduje się, że cyberprzestępcy, aby skutecznie obchodzić zabezpieczenia, zastosują strategię łączenia kilku rodzajów ataków. Przykładem może być integracja phishingu, steganografii i wirusów bezplikowych do przeprowadzenia ataku na wiele celów jednocześnie. Takie synergiczne ultrazagrożenia będą ze sobą sprzężone i wprowadzą spore zamieszanie w tradycyjnym krajobrazie zabezpieczeń obronnych, komplikując proces identyfikacji i przeciwdziałania atakom.

 

Przeczytaj również:

5 zachowań pracowników, które ułatwiają cyberprzestępcom dostęp do firmowych danych

 

 

Chmura, domowe IoT i media społecznościowe w stanie oblężenia

Dzięki dostępowi do coraz skuteczniejszych taktyk i strategii cyberprzestępcy będą mogli skierować swoje ataki na cele o szerszym zakresie i większym poziomie złożoności. Przewiduje się, że w roku 2019 na ich celowniku znajdą się: własność intelektualna, domowe urządzenia Internetu Rzeczy (IoT) oraz dane uwierzytelniające przechowywane w chmurze, cyfrowi asystenci i platformy społecznościowe.

• Wycieki danych z chmury: McAfee prognozuje znaczny wzrost liczby ukierunkowanych ataków celujących w ogromne ilości danych korporacyjnych przechowywanych w chmurze. 21% treści zarządzanych obecnie za pośrednictwem chmury zawiera materiały poufne i wrażliwe, np. własność intelektualną, informacje o klientach i dane osobowe. Możliwe scenariusze obejmują ataki ukierunkowane na słabe interfejsy API lub niestrzeżone punkty końcowe API, rozszerzony rekonesans i eksfiltrację danych z baz chmurowych, a także użycie chmury do ataków kryptologicznych MITM (man-in-the-middle) do celów cryptojackingu lub ransomware.

• Ataki na domowe urządzenia IoT za pośrednictwem smartfonów, tabletów i routerów: Nowe złośliwe programy mobilne będą wykorzystywać smartfony, tablety i routery po to, by dotrzeć do cyfrowych asystentów i sterowanych przez nich prywatnych urządzeń IoT. Po infekcji takie urządzenia będą wytrychem do naszych domów, stając się częścią botnetów, które mogą uruchomić ataki DDoS, lub dając cyberprzestępcom dostęp do danych osobowych oraz możliwość podjęcia innych złośliwych działań, np. otwarcia drzwi lub połączenia z serwerem sterującym.

• Ataki na tożsamość w mediach społecznościowych: W 2019 roku duże platformy społecznościowe wdrożą dodatkowe środki ochrony danych użytkowników. Jednak wraz z rozwojem mediów społecznościowych cyberprzestępcy będą z coraz większą determinacją rozpracowywać te obfitujące w dane środowiska. Skuteczne naruszenia zabezpieczeń mediów społecznościowych, platform tożsamościowych i urządzeń brzegowych pozwolą przestępcom ponawiać podobne ataki w przyszłości.

Jak donosi Polska Izba Handlu, Unia Europejska pracuje nad projektem dyrektywy w sprawie nieuczciwych praktyk handlowych w relacjach między przedsiębiorstwami w łańcuchu dostaw żywności. Polska Izba Handlu wysłała do instytucji unijnych pismo, gdzie wyraża szczególny niepokój wobec planowanych zmian w funkcjonowaniu grup zakupowych oraz możliwości ograniczenia ich rozwoju.

Wybrane poprawki wniesione do projektu, mogą stanowić zagrożenie dla działania sieci franczyzowych i grup zakupowych. PIH słusznie zauważa, że handel detaliczny zwłaszcza w obszarze żywności w wielu krajach Unii Europejskiej opiera się na tworzeniu grup zakupowych lub integracji mniejszych przedsiębiorstw w inny sposób czy to wokół dystrybutorów, czy tworzeniu systemów franczyzowych, które są swego rodzaju zaawansowaną odmianą grup zakupowych.

 – Zaproponowane do dyrektywy poprawki, które w teorii wynikają z życzenia, by pomóc rolnikom, sprawią, że potężne międzynarodowe koncerny żywnościowe oraz wielkie sieci handlowe staną się jeszcze silniejsze kosztem małych i średnich przedsiębiorstw, tak w obszarze produkcji żywnościowej jak i handlu. Propozycje poprawek zakazujące między innymi tworzenia grup zakupowych stanowią poważne zagrożenie dla wszystkich podmiotów na rynku żywności – komentuje Waldemar Nowakowski, prezes Polskiej Izby Handlu.

Zakaz tworzenia grup zakupowych stoi w sprzeczności w zasadami konkurencji i prowadzić on będzie do ekspansji wielkich sieci handlowych oraz przyczyni się do kurczenia i stopniowej likwidacji rodzinnych sklepów, doprowadzi także do eliminowania z rynku lokalnych producentów.

Funkcjonowanie grup zakupowych w segmencie handlu detalicznego jest niezbędne dla przetrwania małych i średnich przedsiębiorstw handlu detalicznego oraz małych i średnich producentów żywności, którzy nie są w stanie funkcjonować jako dostawcy wielkich sieci handlowych z powodu swoich rozmiarów oraz możliwości produkcyjnych, a doskonale sprawdzają się jako dostawcy do mniejszych podmiotów handlu. Brak możliwości tworzenia grup zakupowych przez te mniejsze podmioty handlu doprowadzi do ich bankructw. Lokalni producenci, którzy nie są w stanie zostać dostawcami wielkich sieci, stracą rynki zbytu – mówi Waldemar Nowakowski, prezes Polskiej Izby Handlu.

Dyskonty wywierają ogromną presję cenową na producentów, którą są w stanie wytrzymać tylko największe firmy. Dlatego właśnie małe podmioty dzięki współpracy w grupach zakupowych oraz systemach franczyzowych mogą podejmować walkę konkurencyjną w obszarze cen. Wprowadzenie w życie poprawek do dyrektywy o nieuczciwych praktykach rynkowych może spowodować, że tworzenie grup zakupowych nie będzie możliwe. Pociągnie to za sobą likwidację sieci franczyzowych, bankructwo tysięcy sklepów spożywczych oraz w konsekwencji zwiększenie przewagi konkurencyjnej sieci hipermarketów i dyskontów, zwiększenie ich presji na producentów żywności oraz eliminację mniejszych producentów rolnych i żywnościowych, obecnie zaopatrujących mniejsze podmioty.

Źródło: mat. prasowy. Treść pisma PIH tutaj.

Polski producent AGD zbiera kolejne laury. Niedawno Amica SA otrzymała nagrodę w plebiscycie zorganizowanym przez PwC Polska i Puls Biznesu, w kategorii „Eksporter: Polska Firma Prywatna – duże przedsiębiorstwa”, a prezes – Jacek Rutkowski otrzymał nagrodę w plebiscycie „CEO Roku”. 

Ostatnie tygodnie przyniosły firmie ciekawe wyróżnienia. Wśród ostatnich choćby nagroda CEO Roku dla Prezesa Amica SA Jacka Rutkowskiego oraz wyróżnienie dla spółki w kategorii Utrzymanie Ruchu. Amica otrzymała je w ramach konkursu zorganizowanego przez wydawnictwo Trade Media International oraz magazyny „Inżynieria i Utrzymanie Ruchu” i „Control Engineering Polska”. Wyniki plebiscytu ogłoszono 5 grudnia 2018 r. podczas uroczystej gali, która odbyła się w warszawskim hotelu Marriott. Była to już siódma edycja konkursu „Fabryka roku”. W 19 kategoriach nagrodzono w nim firmy i osoby wyjątkowo wyróżniające się we wprowadzeniu nowych rozwiązań i technologii w zakładach produkcyjnych w naszym kraju. W tegorocznej edycji zmagało się 90 fabryk. Do finału przeszły 23 zakłady produkcyjne.

W imieniu firmy, nagrodę odebrał dyrektor fabryki we Wronkach – Krzysztof Machaj.

 

Zobacz też:

Amica: rosną nie tylko przychody, ale też marże

Innym wyróżnieniem, które ostatnio trafiło „do rąk” firmy była nagroda w kategorii „Eksporter: Polska Firma Prywatna – duże przedsiębiorstwa”. Konkurs „Polska Firma – Międzynarodowy Czempion” prezentuje przedsiębiorstwa, które dzięki zagranicznym inwestycjom oraz działalności eksportowej przekształcają się w globalne firmy, doskonale radzące sobie na zagranicznych rynkach. Już po raz siódmy spółki z rodzimym kapitałem, które w ciągu ostatnich trzech lat dokonały inwestycji zagranicznej lub z sukcesem prowadzą działalność eksportową, mogły ubiegać się o tytuł Międzynarodowego Czempiona. Nagrody przyznano w pięciu kategoriach. Amica otrzymała tytuł najlepszego eksportera wśród dużych przedsiębiorstw. – Niezmiernie nam miło, że Kapituła konkursu, która składa się z tak doskonałych specjalistów jakimi się eksperci PwC oraz Pulsu Biznesu, dostrzegła sukces Grupy Amica na rynkach zagranicznych. W naszej strategii rozwoju eksport i dywersyfikacja rynków stanowią wyjątkowo ważny punkt bez którego Amica nie rozwijałaby się tak dynamicznie jak to ma miejsce dzisiaj. – Specyfika rynku AGD powoduje, że aby utrzymać pozycję liczącego się gracza, musimy być obecni we wszystkich kategoriach produktowych. Oferowane przez nas urządzenia są często projektowane tak, żeby uwzględnić bardzo specyficzne potrzeby klientów na poszczególnych rynkach – mówił Dariusz Kaszkowiak, dyrektor ds. biznesu międzynarodowego w Grupie Amica.

Produkowany przez spółkę sprzęt dostępny jest w 62 krajach świata. To przede wszystkim Europa, ale także takie egzotyczne państwa jak: Tajwan, Tajlandia, Australia czy Arabia Saudyjska. Doskonale zaprojektowane produkty, wsparte przemyślaną strategią sprzedaży, pozwalają Grupie Amica rozwijać sprzedaż nawet  na najbardziej wymagających rynkach, w tym także w Europie Zachodniej. Wysoka jakość, szeroka oferta produktów oraz rozbudowane portfolio marek rozpoznawalnych na różnych runkach sprawiają, że już ponad 70% sprzedaży, Amica realizuje na rynkach zagranicznych.

Przeczytaj również:

Branża AGD w dobrej kondycji – pomimo czynników ekonomicznych sprzedaż rośnie

 

Według policyjnych danych, średnio co 8 minut w Polsce dochodzi do włamania. Dla przykładu, w ubiegłym roku takich niechcianych „wizyt” odnotowano aż 65 tysięcy. Wiedząc, że włamywacze są wyjątkowo aktywni zwłaszcza w okresie świątecznym, warto postawić na bezpieczeństwo nie tylko domu, ale i miejsca pracy. O tym warto pomyśleć także w czasie urlopów zimowych lub przedłużonych weekendów, kiedy najłatwiej o włamanie i kradzież.

Bezpieczeństwo w pracy to nie tylko normy, BHP, szkodliwość i uciążliwość występujące w środowisku pracy. To także dogodne warunki wynikające ze stanu zdrowia psychicznego – zarówno pracowników, jak i właściciela/i firmy. Niestety wielu przedsiębiorców w czasie świąt czy urlopów (zwłaszcza dłuższych i dalszych wyjazdów), ma z tyłu głowy troskę o wartościowe przedmioty i informacje przechowywane w miejscu pracy. A można tego uniknąć.

Co warto zabezpieczyć?

Dziś technika zapewniająca bezpieczeństwo miejsca pracy pędzi do przodu. Dlatego postanowiliśmy zebrać najciekawsze rozwiązania, które w sposób skuteczny i komfortowy zapewnią efektywną ochronę budynku, magazynu, fabryki, ale i modnych dziś showroomów pokazowych czy sal konferencyjnych z mnóstwem elektroniki i wyposażenia technicznego. Do tego dochodzą jakże ważne komputery, które są dziś kompleksowym źródłem informacji o firmie i nierzadko najważniejszym jej „dobrem”.

Jeśli twoja firma należy do kategorii o wysokim ryzyku zagrożenia włamaniem lub kradzieżą, wystarczy zastosować kilka podstawowych rozwiązań, aby chronić obiekt, zabezpieczyć pieniądze i ważne informacje, które mogą wyciec.

Dostępne rozwiązania

Kadra kierownicza powinna wiedzieć, że profilaktyka jest tańsza od leczenia, dlatego aby sama firma, ale tez informacje i pracownicy były bezpieczne i funkcjonowały bez opóźnień, warto postawić na sprawdzone rozwiązania. Oprócz zabezpieczeń mechanicznych, tj. klucze, drzwi i okna antywłamaniowe, warto postawić na systemy monitoringów. Najnowszym trendem jest monitoring zdalny, który pozwala na nadzór nad systemami alarmowymi z poziomu smartfona, tabletu bądź  komputera. Jedną z aplikacji jest mPanic, która obsługuje systemy zabezpieczeń firmy Konsalnet. Aplikacja służy do zdalnego zarządzania i monitorowania systemem alarmowym, pozwalając podglądać stan alarmu, obsługiwać płatności elektroniczne, a także sprawdzić, czy alarm jest uzbrojony czy też nie. W razie uruchomienia alarmu, aplikacja powiadomi sygnałem bezpośrednio na telefonie użytkownika. Dodatkowo, szybki kontakt z działem obsługi Konsalnet, alerty, powiadomienia i pełna dokumentacja płatności to kolejne funkcje dla aplikacji mobilnej, która staje się centrum kontaktowym pomiędzy firmą a klientami.

Oczywiście, nie należy zapominać o podstawowych elementach zabezpieczeń technicznych, takich jak systemy przeciwpożarowe. Można wykorzystać proste czujniki (sygnalizujące dźwiękowo lub świetlnie) jednak dużo skuteczniejsze są rozwiązania oferowane przez profesjonalne firmy pracujące na rynku zabezpieczeń od lat. Nadal ważnym elementem zabezpieczenia jest telewizja przemysłowa CCTV, która odpowiada dziś w wielu firmach za główny system monitoringu. Działanie telewizji przemysłowej, czyli Closed-Circuit TeleVision opiera się na wykorzystaniu zainstalowanych kamer. Co ważne, nagrane materiały mogą później służyć jako materiał śledczy dla Policji. Wielu przedsiębiorców uważa, że zastosowanie CCTV znacząco motywuje pracowników, dyscyplinując ich i poprawiając ich wydajność. Dzisiejsze systemy pozwalają śledzić obiekty nawet w ciemności.

– Dobry system zabezpieczeń to taki, który został zaprojektowany i wdrożony z myślą o wszystkich potencjalnych ryzykach związanych z funkcjonowaniem obiektu – np. włamaniach, kradzieżach, nieautoryzowanym dostępie do zabronionych stref, ale także wypadkach losowych czy pożarach. W naszej ofercie system taki składa się z kompatybilnych i w pełni zintegrowanych ze sobą elementów – tak, aby jego obsługa była prosta i wygodna, a przede wszystkim – pozwalała na szybką reakcję w razie zagrożenia. Do dyspozycji klientów oddajemy niezawodne rozwiązania technologiczne sprawdzonych dostawców. Korzystamy z rozwiązań technologicznych takich marek jak: Schrack Seconet, Ambient System, Bosch Security Systems, Polon-Alfa, UTC Fire&Security, Xtralis, Gunnebo, TOA Electrics – komentował przedstawiciel marki Konsalnet, której zaufało szerokie grono klientów na terenie całej Polski (m.in. Wojsko Polskie, NBP czy oddziały PKO S.A.). – Nasza oferta obejmuje wykonanie projektu systemu zabezpieczeń, który będzie integrował m.in. zabezpieczenia: BMS, SSWiN, CCTV, SKD, DSO, P. POŻ, także w ramach sieci LAN i 230V, dobór urządzeń, które umożliwią najbardziej efektywne wdrożenie projektu, modernizację systemów bezpieczeństwa – tak, aby dostosować je do aktualnie obowiązujących standardów, serwis i konserwację systemów zabezpieczeń. Nasi Klienci mogą liczyć na stałe, profesjonalne wsparcie techniczne. Zespół serwisantów/montażystów liczy niemal 80 osób, kadra techniczna – ok. 60 osób; dodatkowo współpracujemy ze sprawdzonymi podwykonawcami – dodaje przedstawiciel Konsalnet.

 

W ostatnim opublikowanym artykule, PwC opisuje generację C jako grupę konsumentów zdefiniowaną ze względu na wiek, ale postawę wobec nowych mediów. Charakteryzuje ich ciągła aktywna obecność w sieci – samodzielne lub zbiorowe tworzenie i udostępnianie treści. Generacja C to wspólnota stylu życia, perspektywy i wartości – opisuje PwC. Przekład artykułu przedstawiamy poniżej.

Dla pokolenia C nie ma wyraźnej granicy między światem online i offline, to jeden świat. Przedstawiciele tego pokolenia nie dzielą czasu na online i offline, stale są on-life. Nie wyobrażają sobie wyjścia z domu bez smartfona. Ze względu na nieustanne podłączenie do sieci nazywani są Pokoleniem Connected. Jednak Connected to nie jedyne możliwe rozwinięcie nazwy „Generacja C”. Inne ważne cechy tej grupy konsumentów również mogą stanowić rozwinięcie skrótu – Casual life, Community, Content/Celebrity, Creation.

Na co zwrócić uwagę budując markę w odpowiedzi na potrzeby nowego pokolenia?

1) Działaj wielokanałowo

Generacja C (Connected), co to oznacza dla marek? Jeszcze niedawno mówiliśmy o multichannelu, obecnie marka powinna tworzyć omnichannel, czyli budować spójne, wielowymiarowe doświadczenie i umożliwiać wymianę treści w obie strony. Skończyła się rola marki jako nadawcy i konsumenta jako odbiorcy. Konsument jest równoprawnym partnerem dialogu. Obliguje to marki, by reagowały natychmiast – muszą być z konsumentami w ciągłym kontakcie. Konsumenci są coraz bardziej niecierpliwi, chcą mieć wszystko tu i teraz, za jednym kliknięciem.

Zobacz też:

Dokumentacja pracownicza w świetle nowych przepisów

2) Porzuć schematy

Generacja C (rozumiana również jako casual life) oznacza, że nie chcą być zamknięci w schematach – iść z góry wyznaczonymi ścieżkami, takimi jak ścieżka kariery. Chcą być wolni, elastyczni. Chcą robić jak najwięcej na swój własny sposób.

Dążą do maksymalizacji wygody i prostoty. Nie przyjmują zastanego podziału na pracę i rozrywkę (zabawę) – według nich praca powinna być spełnianiem się w swojej pasji. Interesuje ich sukces finansowy, ale droga do niego nie może być poświęceniem. Przedstawiciele pokolenia C wolą skapitalizować swoje hobby – założyć startup i sprzedać go z sukcesem lub zostać influencerem– niż spędzić życie próbując się dorobić.

Firmy starające się o pracowników z tego pokolenia, próbują dostosować swoje przestrzenie do ich oczekiwań, dlatego niektóre miejsca pracy wyglądają jak place zabaw. Huśtawki, zjeżdżalnie, dostęp do gier, to tylko niektóre z atrakcji czekających na pracowników z tego pokolenia.

Jak marki mogą wykorzystać tę potrzebę nieskrępowanego stylu życia? Poprzez upraszanie komunikacji, maksymalizowanie wygody i dawanie konsumentowi przestrzeni na samodzielność.

3) Zademonstruj realną siłę swojej marki

Generacja C (jako community) oznacza, że osoby z tego pokolenia jednoczą się wokół wartości. W związku z tym marki chcące przyciągnąć tę grupę konsumentów, definiują siebie poprzez idee a nie produkty.

Co w praktyce oznacza próbę odpowiedzi na pytania:

  • w jakim celu działamy,
  • jaka jest nasza centralna idea,
  • jaka misja przyświeca naszej marce.

To na bazie odpowiedzi na te pytania buduje się tożsamość marki (wokół brand purpose), wyznacza jej aktywności i podejmuje misje ważne kulturowo i społecznie.

Takie marki jak Dove gromadzą wokół siebie konsumentów, których łączy cel i wartości, a nawet wspólne działanie. Po storytellingu przyszedł bowiem czas na storydoing, co oznacza, że coraz ważniejsze stają się działania CSRowe, w które konsumenci również mogą się zaangażować.

Zobacz też:

Zarządzanie gotówką w biznesie – zobacz rozwiązania, które usprawnią obrót pieniędźmi w firmie

4) Autentyczność to podstawa

Generacja C (Content / Celebrity) to nie tylko odbiorcy treści, ale również jej twórcy. Ta grupa włącza kamerę i wysyła w świat swój własny „kontent” – najczęściej obrazkowy (dlatego Instagram jest dla nich tak ważnym portalem). Internet jako medium demokratyczne pozwala im porzucić rolę widza na rzecz roli aktora.

Jako twórcy są krytyczni wobec treści udostępnianych przez innych aktorów i tradycyjnych działań marketingowych. Dlatego tak duże znaczenie ma dla nich, kto reprezentuje i poleca daną markę. Bardziej ufają komuś, kto jest podobny do nich (stąd rosnąca popularność mikroinfluencerów), niż gwiazdom, które polecają produkty i usługi zawodowo. Przekaz, który do nich trafia musi być przede wszystkim autentyczny. Marki mające tego świadomość, wykorzystują w swoich kampaniach zwykłych ludzi. Marka Dove pokazała, jak wyglądają prawdziwe mamy, zapraszając do udziału w reklamie zwyczajne kobiety.

5) Zaangażuj klientów – współtwórzcie razem produkty

Generacja C (Creation) ceni kreatywność, jest twórcza – chce stworzyć coś swojego, chce pokazać to światu i zarabiać na tym pieniądze.

Marki mogą wykorzystać tę potrzebę twórczości, skonstruować przestrzeń, w której konsument będzie wyrażał siebie z korzyścią dla marki. Osoby z Generacji C chętnie sięgną po produkty i usługi, które mogą spersonalizować – dopasować do swoich potrzeb i charakteru. Dla marek to okazja do współtworzenia z konsumentem produktów – projektowania opakowań, nadawania nazw, poszukiwania innowacji. Dziś markę przynajmniej częściowo można oddać w ręce twórczych konsumentów – nawiązać z nimi współpracę i dać im poczucie, że to naprawdę ich marka.

Nowa Piramida Potrzeb

Omówione cechy Generacji C można ułożyć w nową piramidę potrzeb, charakterystyczną dla przedstawicieli tego pokolenia, a inspirującą dla marek. U jej podstawy znajdziemy Casual Life, czyli brak ograniczeń i schematów, wolność myślenia i działania. Nad Casual Life plasuje się Connected jako poczucie bezpieczeństwa. Powyżej znajdziemy Community, rozumiane jako poczucie przynależności (współdzielenie idei), nad nim uznanie – Content / Celebrity, a u szczytu piramidy, jako centralną potrzebę, widzimy Creation, czyli w tym kontekście spełnienie twórcze.

Źródło: PwC

Na warszawskiej Woli w pierwszych trzech kwartałach tego roku oddano do użytkowania więcej domów i mieszkań niż w całych województwach lubuskim, opolskim i świętokrzyskim, a niewiele mniej niż w podlaskim i warmińsko-mazurskim. Home Broker sprawdził, gdzie w Polsce buduje się najwięcej, a gdzie najmniej.

Z danych Głównego Urzędu Statystycznego wynika, że w okresie styczeń-wrzesień 2018 r. oddano w Polsce do użytkowania 129,8 tys. lokali mieszkalnych. W całym poprzednim roku było to 178,3 tys. Co ósmy lokal (dom lub mieszkanie) w tym roku wybudowano w Warszawie – 16 835 lokali oddanych do użytkowania. Stolica jest największym miastem i największym rynkiem nieruchomości, ale warto zauważyć, że w przeliczeniu na 1000 mieszkańców, wcale nie buduje się tam najwięcej.

Przez trzy kwartały bieżącego w roku w Warszawie oddano do użytkowania 9,5 lokali mieszkalnych na 1000 mieszkańców. W Gdańsku wskaźnik ten wyniósł 9,8, Wrocławiu 11,1, a niewielkiej Wrześni – 10. Spośród miast wojewódzkich na przeciwnym biegunie (liczba mieszkań oddanych do użytkowania na 1000 osób mniejsza niż 2,5) znalazły się Katowice, Bydgoszcz i Olsztyn. W przedziale 2,5-3 wskaźnik ten mieści się w Łodzi, Zielonej Górze i Toruniu.

Budowlana katastrofa na Śląsku

A to i tak nieźle w porównaniu do niektórych innych dużych miast. W Częstochowie, Sosnowcu i Radomiu (to miasta z 200-230 tys. mieszkańców) powstało odpowiednio 1,2, 1,3 i 1,7 lokali mieszkalnych na 1000 osób. W wielu miastach Śląska sytuacja jest wręcz katastrofalna. W Zabrzu (ponad 170 tys. mieszkańców) oddano do użytkowania 157 lokali mieszkalnych (0,9 na 1000 osób), a w Bytomiu i Rudzie Śląskiej po 80-90, co daje wskaźnik na 1000 mieszkańców na poziomie odpowiednio 0,5 i 0,7. Wg prognoz demografów liczba ludności tych miast spadnie do 2050 r. o 30 proc. lub więcej. Najgorsze prognozy dotyczą Bytomia i Zabrza, w których spadek liczby ludności ma wynieść około 50 proc. W tych miastach nie ma po prostu kto ani dla kogo budować. Przy średniej dla całego kraju 3,4 mieszkania na 1000 mieszkańców, w woj. śląskim wybudowano 1,9.

Zobacz też:

Zmiany klimatyczne wymuszają zmiany na rynku nieruchomości

Rozwój okolic aglomeracji

Ale są w Polsce i miejscowości, w których ludzie chętnie się osiedlają. Na czoło wysuwają się tu okolice Poznania i Gdańska – w miastach tych występuje zjawisko suburbanizacji, czyli zaludniania gmin podmiejskich, które kuszą niższymi cenami nieruchomości i większym spokojem. W podpoznańskich Komornikach przed 9 miesięcy wybudowano 56 mieszkań na 1000 mieszkańców, a w podgdańskim Żukowie – 103. Te liczby należy jednak traktować ostrożnie, gdyż są to miejscowości dynamicznie rozwijające się i ich liczba mieszkańców regularnie rośnie. Na przykład liczba mieszkańców Borkowa (gmina Pruszcz Gdański) wzrosła od 1998 r. ponad ośmiokrotnie.

Przeciętne ceny metra kwadratowego mieszkania
w największych miastach Polski i ich zmiana w czasie

Lokalizacja Liczba lokali mieszkalnych oddanych do użytkowania Liczba lokali mieszkalnych oddanych do użytkowania na 1000 mieszkańców
POLSKA 129 833 3,4
Białystok 1 263 4,2
Bydgoszcz 852 2,4
Gdańsk 4 563 9,8
Gorzów Wlkp. 618 5,0
Katowice 639 2,2
Kielce 880 4,5
Kraków 6 646 8,7
Lublin 2 091 6,2
Łódź 1 894 2,7
Olsztyn 401 2,3
Opole 606 4,7
Poznań 3 111 5,8
Rzeszów 1 714 9,0
Szczecin 1 884 4,7
Toruń 570 2,8
Warszawa 16 835 9,5
Wrocław 7 073 11,1
Zielona Góra 395 2,8

Źródło: obliczenia Home Broker na podst. danych GUS

Stolica rozbudowuje Wolę

W okresie styczeń-wrzesień 2018 r. w Warszawie oddano do użytkowania 16 835 lokali mieszkalnych. Najwięcej (3109 – 22,4 na 1000 mieszkańców) na napędzanej drugą linią metra Woli, potem na Białołęce (2323 – 20 na 1000 mieszk.) i Pradze-Południe (2181 – 12,2 na 1000 mieszk.). Dziwić może tylko 116 lokali mieszkalnych oddanych do użytkowania na Śródmieściu (1 na 1000 mieszkańców), które słynie z najwyższych cen mieszkań i gęstej zabudowy. I właśnie ta gęsta zabudowa jest przyczyną niewielkiej liczby nowych inwestycji – po prostu nie ma gdzie budować, a nieliczne dostępne działki są bardzo drogie. Wg danych GUS w 2016 r. na warszawskim Śródmieściu nie oddano do użytkowania ani jednego mieszkania.

Zamieszkana przez bez mała 140 tys. osób Wola wybudowała w dziewięć miesięcy tyle mieszkań co 540-tys. Poznań. Więcej mieszkań powstało jedynie w Gdańsku, Krakowie i Wrocławiu. Pod względem liczby mieszkań oddanych do użytkowania najbardziej dynamiczna warszawska dzielnica wygrywa z trzema województwami (lubuskie, opolskie i świętokrzyskie), a nieznacznie przegrywa z dwoma kolejnymi (podlaskie i warmińsko-mazurskie).

Źródło: https://homebroker.pl/blog/2018/12/polsce-buduje-sie-najwiecej-domow-mieszkan/

Marcin Krasoń, Home Broker, marcin.krason@homebroker.pl

Eksperci

Biegowy biznes z Polski podbije świat. I można do tego podboju dołączyć

Runmageddon – stworzony w Polsce cykl biegów przeszkodowych – to najbardziej nuklearna historia na p...

Straty są nieodłączną częścią inwestycji

Zakończony niedawno maj był najgorszym miesiącem w tym roku dla rynku akcji. Większość parkietów odn...

Uchwała NSA pozwala wygrać z fiskusem

Każde zobowiązanie podatkowe ulega przedawnieniu. Oznacza to, że po upływie terminu przedawnienia or...

Wierzyciel nie musi spłacać w całości swego długu upadłemu, aby móc samemu zaspokoić się z

Z chwilą ogłoszenia upadłości majątek upadłego staje się masą upadłości i służy zaspokojeniu wszystk...

Inflacja rośnie zgodnie z planem – mocniej w górę poszły ceny żywności oraz paliw

Potwierdziły się wstępne szacunki GUS, zakładające wzrost inflacji w marcu do 1,7 proc. Mocniej w gó...

AKTUALNOŚCI

Już za tydzień wakacje! – oto Twój przedwakacyjny niezbędnik

Z jednej strony wakacyjny wyjazd to świetna sprawa. Z drugiej – to masa spraw, z którymi musimy się ...

Polacy coraz bardziej odczuwają wzrost cen żywności

83 proc. uczestników badania „Sytuacja na rynku consumer finance” KPF i IRG SGH, przeprowadzonego w ...

Europosłowie od lipca przystąpią do pracy

Tegoroczny kalendarz prac Parlamentu Europejskiego przewiduje pięć sesji plenarnych w Strasburgu i t...

Rosnące cła wyhamują wzrost gospodarczy. Czy odbije się to na bijącej rekordy polskiej wymianie

Napięta sytuacja na linii USA-Chiny budzi wiele wątpliwości co do przyszłości globalnej wymiany hand...

Kolejna fala cyfrowej transformacji przed nami

Według IDC globalne inwestycje w technologie i usługi umożliwiające cyfrową transformację rosną w dw...