Przejdź do treści
Zapraszamy

Czytelników, rozmówców na forum, Autorów, Blogerów, Redaktorów,...

Przeczytaj o możliwościach korzystania z witryny i współpracy

Salon Business Dialog Klub Inspirations Klub Dialog CIO Business Meeting Point Kwintesencja Projekty Business Dialog

W blogu Spostrzeżenia

Blog Iwony D. Bartczak

Czytam, że to banki zapłacą za oszukanie „frankowiczów”. Zapłacą tak samo, jak zapłaciły „podatek bankowy”. Czyli ich klienci zapłacą......
W systemie pieniądza fiducjarnego, którego większość nie jest bynajmniej emitowana przez bank centralny kraju emitenta, tylko jest „kreowana” przez banki komercyjne, który to pieniądz służy zaspakajaniu rosnących potrzeb pożyczkowych tych państw, żadna krzywda się nie stanie bankom i systemowi bankowemu.
Ustawa o podatku od niektórych instytucji finansowych (UFIN), potocznie nazywanym podatkiem bankowym, weszła w życie 1 lutego 2016 roku. Nowym podatkiem objęte zostały banki, spółdzielcze kasy oszczędnościowo-pożyczkowych z aktywami powyżej 4 mld zł, zakłady ubezpieczeń i reasekuracji z aktywami powyżej 2 mld zł oraz firmy pożyczkowe z aktywami powyżej 0,2 mld zł. Podatek ma charakter majątkowy. Przedmiotem opodatkowania są aktywa tych instytucji czyli nadwyżka sumy ich aktywów, wynikająca z zestawienia obrotów i sald, ustalonego na ostatni dzień miesiąca, ponad kwotę wolną od podatku. W przypadku banków jest to głównie aktualny stan kredytów hipotecznych i innych kredytów udzielonych gospodarstwom domowym, aktualny stan kredytów inwestycyjnych i obrotowych udzielonych przedsiębiorstwom oraz aktualny stan papierów wartościowych – innych niż obligacje skarbowe, które zostały wyjęte spod opodatkowania. Podatek pobierany jest za okresy miesięczne w wysokości 0,0366% podstawy opodatkowania. Rocznie – 0,44%.
Rząd planował, że nowa danina przyniesie budżetowi państwa 5,5 mld zł, zaś urzędnicy Ministerstwa Finansów zapewniali, że potrafią zapobiec przerzuceniu podatku na klientów banków. Znajdujący się pod kontrola państwa PKO BP miał utrzymać dotychczasowe warunki depozytów i kredytów, wywierając presję na inne banki, aby też powstrzymały się przed podnoszeniem marż. Argument wpływu konkurencji od początku wydawał się chybiony. W warunkach ogólnej równowagi rynkowej działa bowiem automatyczny mechanizm podtrzymujący „uzasadniony” poziom rentowności kapitału, taki sam jak przed zmianą okoliczności zaburzającej równowagę, którą w tym wypadku jest wprowadzenie nowego podatku. Można się było spodziewać, że ostatecznymi płatnikami podatku „bankowego” będą przede wszystkim klienci instytucji finansowych.
Po roku rezultaty wprowadzenia daniny były niższe, niż planowane przez rząd, a koszty – jak się należało spodziewać – ponosili klienci. Do końca listopada 2016 wpływy z podatku bankowego wyniosły 3,15 mld złotych, co sugeruje, że w skali całego roku wyniosą 3,5 mld zł. Czyli zaledwie 64% planu. W pierwszym miesiącu obowiązywania nowego podatku przyniósł on budżetowi 304,8 mln zł, później jednak banki płaciły z tego tytułu coraz mniejsze kwoty. To efekt unikania opodatkowania przez wykorzystanie różnych rozwiązań prawnych. Jedną z metod było stosowanie tak zwanych programów naprawczych. Bank, który jest nim objęty, zwalniany jest z podatku. Z rozwiązania tego skorzystały od samego początku Bank Ochrony Środowiska oraz Bank BPH. Po pierwszym kwartale dołączył do nich Getin Noble Bank, co spowodowało znaczące obniżenie wpływów z podatku bankowego między marcem a kwietniem.
Drugą metodą był skup obligacji skarbowych, które banki mogą odliczyć od podstawy opodatkowania. Do końca 2015 roku zainteresowanie banków tą kategorią aktywów było stosunkowo stabilne. Od stycznia 2016 roku zauważalny jest dynamiczny wzrost udziału w bilansach banków tego składnika aktywów wyjętych z podstawy opodatkowania. Od stycznia do końca maja 2016 roku zaangażowanie banków w obligacje skarbowe wzrosło o 54 mld zł, czyli o 33%. Był to główny element, który wpłynął na obniżenie w tym okresie podstawy ich opodatkowania o 57 mld zł. Gdyby banki zapłaciły podatek w grudniu 2015 roku, to wpływy budżetowe wyniosłyby 20 mln zł więcej, niż z podatku za maj 2016 roku. Dzięki tym posunięciom w pierwszym kwartale obowiązywania nowej taksy efektywna stawka opodatkowanie bankowych aktywów wyniosła ok. 0,27%.
Ale za to, mimo wprowadzenia nowego podatku, zysk netto banków rósł. W 2016 roku wyniósł 13,91 mld zł – o 24,3% więcej niż rok wcześniej i podobnie jak w rekordowych latach 2011-14. Kto więc stracił, skoro jakieś wpływy budżet zanotował? Oczywiście klienci.
Podatek bankowy dotyczy nie konkretnych produktów, czy usług, ale sumy aktywów, czyli tego, na czym bank zarabia bądź traci (kredyty, obligacje). Zidentyfikowanie jego wpływu na podwyżki cen różnych produktów i usług jest więc trudne, ale z uwagi na ograniczoną konkurencję na rynku usług bankowych, spowodowaną wysoką barierą wejścia, można się było spodziewać, że podwyżki takie nastąpią. Co też się stało.
Przez cały rok 2016 wskaźnik WIBOR odzwierciedlający cenę pieniądza w handlu między bankami, oscylował w okolicach 1,7%. Tymczasem oprocentowanie depozytów systematycznie malało. Pod koniec 2015 roku średnie oprocentowanie najlepszych depozytów rocznych wynosiło 2%, a pod koniec 2016 roku już tylko 1,7%. Osoby prywatne miały wówczas ulokowane w bankach około 660 mld zł. Część z nich – ulokowana na ROR-ach – nie była oprocentowana. Ale prawie 300 mld zł to depozyty terminowe, których oprocentowanie w ciągu roku spadło, co pozwoliło bankom zwiększyć marżę odsetkową. Skoro zatem oprocentowanie depozytów o wartości 300 mld zł spadło o 0,3 pkt proc., to oszczędności banków osiągnęły miliard złotych. Kolejne 100 mld zł ulokowanych było na oprocentowanych kontach oszczędnościowych, których oprocentowanie zmalało jeszcze bardziej niż depozytów – bo około 0,4 pkt proc. Daje to 400 mln zł oszczędności dla banków kosztem ich klientów. Deponenci „zapłacili” więc 1,4 mld zł podatku bankowego niższym oprocentowaniem depozytów.
Drugim źródłem pokrycia przez banki nowego podatku było podwyższanie marż kredytów hipotecznych. Ich rentowność – po opodatkowaniu aktywów banków – jest najniższa, więc właśnie tym kredytom podwyższono cenę. Średnia marża nowo udzielanego kredytu hipotecznego wynosiła na początku 20116 rok 1,7-2% (w zależności od wkładu własnego). Na początku 2017 roku wyniosła 2,1-2,3%. Wzrost o 0,3 pkt proc. oznacza, że banki udzielające rocznie 40 mld zł na średni okres 25 lat, osiągnęły z tytułu wyższych rat 200 mln zł rocznie (i 2 mld zł w całym okresie kredytowania). Dla statystycznego klienta zaciągającego kredyt na mieszkanie o wartości 300 tys. zł, zmiany te oznaczają wzrost kosztów o prawie 20 tys. zł.
To są dane zagregowane. Z punktu widzenia rozważań o przerzucaniu podatku potrzebne jest porównanie bardziej szczegółowe. Analiza cen produktów i usług na rynku finansowym nie jest jednak prosta, gdyż produkty te i usługi są inaczej w różnych bankach skonfigurowane.
Dla ułatwienia klientom porównania ofert stworzono pojęcie rzeczywistej rocznej stopy oprocentowania (RRSO, ang. Annual percentage rate). W lutym 2016 roku dla kredytu hipotecznego na zakup mieszkania na 30 lat w wysokości 200.000 zł, wkładzie własnym 50.000 zł i wartości zabezpieczenia 250.000 zł, najniższe RRSO wynosiło 3,58%, najwyższe 4,79%. Różnica aż 33,5%! Ale warunki przyznawania kredytów były różne. Tam, gdzie łatwiej było go uzyskać, RRSO było wyższe. Co więcej, najwyższa rata miesięczna wcale nie była najwyższa tam, gdzie najwyższe było RRSO. Najniższa wynosiła 880 zł, najwyższa 1.000 zł. Różnica w wysokości raty wnosiła więc 13,5% – była ponad dwa razy niższa niż w przypadku RRSO.
Rosły też ceny innych produktów i usług finansowych. W nowym cenniku jeden z banków podniósł opłatę za podwyższenie kwoty limitu odnawialnego. W 2015 roku pobierał za taką operację 2,1-2,5%. W roku 2016 prowizja ta sięgnęła 5%. Wprowadził też do cennika opłatę za monity mailowe o przeterminowanym zadłużeniu. Taka operacja kosztowała w 2016 roku 8 zł. Jako nowa pozycja w tabeli opłat pojawiła się opłata za wycenę wartości nieruchomości, która ma stanowić zabezpieczenie kredytu. Została ona uzależniona od rodzaju nieruchomości a jej wysokość określono od 300 do 800 zł. Podniesiono też opłaty za korzystanie z karty kredytowej z 10 do 15 zł, a dodatkowo wycofano możliwość uniknięcia tej prowizji przy wykonaniu określonych obrotów. Ponadto wzrosła z 2 do 2,5% prowizja za odnowienie kredytu w rachunku bieżącym i pojawiła się opłata za wykonanie przelewu walutowego wewnętrznego, realizowanego miedzy rachunkami firmowymi z konta walutowego. Opłata wyniosła 0,35% kwoty przelewu, jednak nie mniej niż 20,00 zł. Maksymalna prowizja w tym przypadku to 200 zł.
Inny bank wprowadzi opłatę za korzystanie z obcych bankomatów. Wcześniej jego klienci mogli korzystać ze wszystkich bankomatów w kraju, nie płacąc prowizji za wypłatę. Od stycznia 2016 roku darmowe pozostały operacje wykonywane w bankomatach własnych banku oraz jednej z sieci. W pozostałych urządzeniach darmowa pozostała tylko pierwsza wypłata w miesiącu, a każda kolejna operacja kosztuje 2,50 zł. Ten sam bank podniósł też opłatę za korzystanie z zagranicznych bankomatów. W 2015 operacja taka kosztowała 3%, od lutego 2016 wzrosła do 6%. Dodatkowo pojawiła się prowizja za przewalutowanie transakcji zagranicznej w wysokości 3%.
Kolejny bank od 1 marca 2016 roku wprowadził opłatę za prowadzenie konta w wysokości 3 zł. Jeśli jednak klient nie zasila rachunku wpływami na poziomie 3,5 tys. zł, bank dolicza mu jeszcze 5 zł (przy wpływach powyżej 2 tys. zł) lub 12 zł (jeśli wpływy są niższe niż 2 tys. zł). Dodatkowo wprowadzono opłatę w wysokości 3 zł za prowadzenie subkonta walutowego i 10 zł za konto oszczędnościowe, jeśli klient nie posiada ROR-u. Wzrosły też opłaty za niektóre przelewy i pojawiła się opłata 1,5 zł za przelewy internetowe w rachunkach firmowych.
Pojawiły się też nowe opłaty za karty debetowe. Nastąpiła zmiana warunków zwalniających z opłaty w niektórych pakietach usług – żeby nie płacić za kartę, klienci niektórych banków muszą wykonać określoną ilość transakcji bezgotówkowych co miesiąc. Niektóre banki wprowadziły też opłaty za konta firmowe. Zwalniani są z nich tylko klienci, na których konto wpływa co miesiąc określona kwota i to pod warunkiem, że wpływy nie pochodzą z innego rachunku prowadzonego w tym samym banku.
Podatek „bankowy” został w znaczącym stopniu przerzucony na klientów banków – zgodnie z tym co można było przewidywać na podstawie literatury naukowej na ten temat.
To samo zrobią banki ze stratami z kredytów frankowych.

W blogu Spostrzeżenia 2019/12/06 - 22:58 Źródło

Powszechnie w biznesie mówimy, że dane są skarbem firmy, że są tym zasobem, z którego możemy zbudować najcenniejsze nasze produkty lub usługi, że są podstawą trafnych decyzji biznesowych. Napomykamy także, że stanie się tak pod warunkiem, że te dane są wiarygodne, a także przetwarzane i udostępniane wedle przemyślanych zasad i z pomocą komfortowego narzędzia. Jednak już i ta wiarygodność i zasady i narzędzia jest w większości firm pod dużym znakiem zapytania.
Powody biznesowe dość powolnie zmieniają nasze podejście do danych od deklaratywnie pozytywnego poprzez faktyczne działania porządkujące ten obszar aż do modelu biznesu tzw. data-driven. Powodów jest wiele, a jednym z ważniejszych jest pewnie brak presji, że bez lepszego zorganizowania tego obszaru firma i jej zarząd poniesienie drastyczne konsekwencje. Utracone korzyści tak nie bolą i nie mobilizują do działania, jak realne zagrożenie stratami i karami. A wygląda na to, że nastały czasy, gdy do wdrożenie zarządzania danymi będzie motywować nas przede wszystkim strach, a nie ambicja lub chciwość.
Nastał bowiem Cyfrowy Fiskus, czyli taki, który na bieżąco analizuje dane spływające szerokim strumieniem z firmy, do jej kontrahentów, innych spółek w grupie, z banków, z innych źródeł. Polski fiskus, ale jest to zjawisko światowe, bardziej niż jakakolwiek firma zmienił model „biznesu” na „data-driven”. Zmusza tym samym firmy do takiej troski o dane, aby obraz firmy – każdej transakcji – widoczny w przekazywanych plikach i innych danych był dokładnie taki, jaki wynika z danych pozyskanych przez fiskusa od jej kontrahentów, z banku, itd. Ponadto, oczywiście, zmusza do drobiazgowej i bieżącej weryfikacji danych, np. o kontrahentach, zgodnie z regulacjami. W przypadku zlekceważenia tej sytuacji i spółka, i zarząd musi się liczyć z karami, a w najgorszym przypadku także utratą wiarygodności i zdolności działania na rynku.
W II edycji programu Cyfrowy Fiskus – zaczynającej się 12.12 w Warszawie – będziemy rekomendować najlepsze praktyki i narzędzia Data Governance, dające korzyści zarówno biznesowe, jak i bezpieczeństwo prawne.
Zaczniemy od Master Data Management. „Zdefiniowanie podstawowych danych, tzw. master data, jest obowiązkowym pierwszym krok w budowaniu strategii zarządzania danymi przedsiębiorstwa. Master data znajdują się w centrum wszystkich kluczowych procesów biznesowych i aplikacji. Bez stworzenia zaufanego, pełnego obrazu danych podstawowych, organizacja nie będzie w stanie skutecznie i wydajnie realizować swoich inicjatyw biznesowych i informatycznych.” – mówi Andrzej Burzyński, dyrektor ds. Data Governance w BI Insight. Zatem dane podstawowe opisują, czym zajmuje się firma i jaki jest trzon jej biznesu. „To spójny i jednolity zestaw identyfikatorów i atrybutów, który opisuje podmioty przedsiębiorstwa, w tym klientów, potencjalnych klientów, dostawców, produkty, relacje i hierarchie. Nie zmieniające się od lat wyzwanie polega na określeniu takiego zbioru atrybutów dla klientów, produktów i dostawców, wokół których skoncentrowana jest aktywność przedsiębiorstwa zarówno w sferze operacyjnej jak i analitycznej.” – mówi ekspert.
Korzyści, jakie przynosi sformalizowane zarządzanie danymi podstawowymi w systemach MDM, dotyczą nie tylko jednej domeny biznesowej czy jednego aspektu technologicznego. Ujawniają się one w newralgicznych obszarach przedsiębiorstwa, począwszy od zarządzania relacjami biznesowymi (CRM), poprzez systemy wsparcia decyzji (BI), kompleksowego zarządzania danymi, procesami i rolami (DG), aż po kwestie bezpieczeństwa danych wrażliwych (RODO) oraz bezpieczeństwa względem fiskusa (pliki JPK i inne) i wymagania regulacyjne ustawy o przeciwdziałaniu praniu pieniędzy (AML).

Rys. 1. Rozwiązanie MDM autorstwa BI Insight.
W wielu organizacjach jakość danych nie jest sprawą zupełnie nową, w szczególności w kontekście projektów integrujących dane z wielu źródeł, jak Hurtownie Danych, czy systemy Business Intelligence. Wdrożenie Hurtowni Danych i Business Intelligence uświadamia organizacjom wiele kwestii związanych z jakością danych i problemów z niejednoznaczną ich interpretacją. To także etap budowania centralnych słowników pozwalających na uniwersalną kategoryzację i interpretację pojęć biznesowych. Jest to dobra podstawa do osiągnięcia pierwszego etapu strategii: budowy analitycznego MDM.
„Bazując na powyższych doświadczeniach, wystarczy dodać do bieżących rozwiązań narzędzia oraz uruchomić procesy łączące słowniki z procedurami zarządzania jakością i spójnością danych (Data Governance), aby w pełni zoperacjonalizować dedykowane procesy zarządzania danymi. Bardzo ważne jest umiejscowienie w organizacji odpowiedzialności za procesy i ich rezultaty. Aby móc mówić o dalszym rozwoju MDM muszą być one realizowane bezpośrednio przez użytkowników biznesowych lub powołane w tym celu jednostki (Biuro Data Governance, Zespół Jakości Danych).” – podpowiada Andrzej Burzyński.
Na tym etapie biznes będzie w stanie przejąć odpowiedzialność za własne dane na poziomie analitycznym, czyli będzie mógł zidentyfikować problemy, a następnie stworzyć reguły i procesy korygujące. Analityczny MDM nie da jeszcze pełnych możliwości zapobiegania problemom u źródła, w miejscach powstawania danych. Będzie to jednak możliwe tam, gdzie analiza jakości danych umożliwi diagnozę przyczyn i łatwe ich usunięcie na etapie konsolidacji i biznesowej interpretacji.
Doświadczenia z wykorzystania analitycznego MDM stają się podstawą do wdrożenia operacyjnego MDM. Operacyjny MDM pełni już znacznie bardziej aktywną rolę. Poza samą obserwacją i analizą jakości danych, jest głównym systemem, w którym realizowane są procesy zarządzania danymi podstawowymi, a więc eliminacji błędów, integracji, deduplikacji i wzbogacania danych. Odpowiada m.in. za hierarchie, atrybuty, parametry źródłowe, a także standaryzację danych i metody ich łączenia, konieczne do zapewnienia spójności i wysokiej jakości danych.
„Rezultatem implementacji operacyjnego MDM jest zestaw referencyjnych danych podstawowych, który następnie jest udostępniany innym systemom i użytkownikom (subskrybentom MDM). W ten sposób operacyjny MDM staje się centralnym źródłem wszystkich słowników danych i ich właściwej interpretacji biznesowej.” – podsumowuje Andrzej Burzyński.
W efekcie oczekiwać należy systematycznego wzrostu jakości danych, pełnej automatyzacji procesów zarządzania danymi oraz wzrost zaufania do danych podstawowych. Tym samym ciężar odpowiedzialności za dane zostanie przeniesiony z jednostek IT na właścicieli biznesowych. Sprzyjać temu będą zmiany w organizacji, które wyodrębnią jednostki/role biznesowe odpowiedzialne za jakość danych podstawowych.
__________________________
Andrzej Burzyński, dyrektor ds. data governance w BI Insight http://www.biinsight.pl będzie ekspertem spotkania w Klubie Dyrektorów Finansowych „Dialog” w dniu 12.12.2019 na warszawskiej GPW. Więcej informacji i możliwość rejestracji na spotkanie https://evenea.pl/event/cf-warszawa-12122019/

W blogu Spostrzeżenia 2019/12/02 - 22:34 Źródło

W ramach Digital Finance Excellence, program Klubu Dyrektorów Finansowych „Dialog” rekomendujemy firmom i dyrektorom najlepsze praktyki usprawniania i automatyzacji procesów, organizacji pracy działów finansowych, kontrolingowych i innych, zarządzania procesem master data, a także wyboru i wdrażania narzędzi informatycznych, wspomagających menedżerów w podejmowaniu trafnych decyzji biznesowych.
W dzisiejszych czasach menedżerowie finansów i kontrolingu stali się właścicielami jednego z najważniejszych procesów tworzących wartość w firmie: gromadzenia, przetwarzania i dystrybucji danych. W poniższym wywiadzie przedstawiamy jednego z takich menedżerów.
Rozmowa z Lilianą Sęk, dyrektorem Biura Nadzoru Standaryzacji  Informacji Zarządczej w Grupie Impel
Digital Finance ExcellenceJaka potrzeba w organizacji wygenerowała Pani rolę w firmie? Na czym polega ta rola i gdzie jest w strukturze?
Liliana Sęk: Grupa Impel szybko się rozwijała, przybywało spółek, obszarów biznesowych, lawinowo rosła liczba operacji i transakcji, a także powiązań między nimi.  Taka sytuacja w każdej firmie generuje dużo danych, które odpowiednio przetworzone dają firmie wartościową podstawę do dalszego rozwoju, natomiast brak zarządzania nimi może spowodować utratę ważnych sygnałów o szansach i ryzykach.
W Impelu dostrzeżono i doceniono potrzebę wiarygodnych raportów, aby podejmować trafne decyzje biznesowe. A raporty są wiarygodne i wartościowe, jeśli sporządzone są na podstawie wiarygodnych i wszechstronnych danych źródłowych. Dane pochodzą z systemów IT. Wówczas grupa korzystała już z SAP, ale były też inne systemy.
W Biurze Kontrollingu zarysowało się zapotrzebowanie na rozwój dwóch rodzajów kompetencji: czysto analitycznej, zorientowanej na potrzeby biznesu oraz wydobywania danych źródłowych z systemów, również analitycznej, ale zorientowanej bardziej technologicznie, komunikującej się dobrze z IT. Z Biura Kontrollingu wydzielono więc nasze Biuro do nadzorowania spójności informacji zarządczej i tam przeszły osoby z umiejętnościami analitycznymi i technologicznymi. Dbamy o jakość, dostępność i wiarygodność danych w całej firmie.
 
DFE: Po kilku latach korzystania z SAP zdecydowaliście się Państwo na poszukanie i wdrożenie nowego rozwiązania kontrollingowego. Dlaczego raporty generowanie przez system ERP (czyli SAP) nie były wystarczające?
LS: Korzystaliśmy z raportów SAP, ale był problem z jednoznacznością i integracją danych z różnych modułów i systemów, a my coraz bardziej potrzebowaliśmy przekrojowych raportów. Coraz wyraźniejsza też stawała się potrzeba wizualizacji. Odpowiedni obraz komunikuje więcej i szybciej niż zestaw liczb czy opis. Już po wdrożeniu Qlick View został zachowany podział zadań między SAP a nowy system: W SAP tworzone są raporty w ramach modułów, w trybie online. W Qlick – zintegrowana informacja zarządcza powstaje (z jednodniowym opóźnieniem) na podstawie danych z różnych systemów (nie tylko systemów SAP).
DFE: Na czym skupiliście się Państwo, szukając nowego rozwiązania do analiz? Jaką przeszliście drogę od decyzji do wyboru satysfakcjonującego rozwiązania?
LS: Przede wszystkim należy podkreślić, że menedżer odpowiedzialny za informację zarządczą w firmie musi mieć i wizję tego, co chce osiągnąć na rzecz swojej firmy, a także silny charakter oraz determinację w realizacji swojej wizji. Musi być liderem, dbającym o morale zespołu, nie bojącym przyznać się do porażek, ale nie powtarzającym błędów. Tylko z taką osobą firma wytrwa w poszukiwaniu właściwego narzędzia i wdrożeniu właściwej organizacji tego obszaru, nie poprzestanie na rozwiązaniach cząstkowych i ułomnych, utrzymywanych, aby nikomu się nie narazić i samemu nie narobić.
W Impelu było kilka etapów, z każdego wyciągaliśmy wnioski, na każdym kolejnym trafniej formułowaliśmy nasze cele. Na początku rozważaliśmy narzędzia z rodziny SAP. Znaliśmy SAP, więc wydało nam się to naturalną kontynuacją. Jednak ten tok rozumowania nie sprawdził się.  Na prezentacjach handlowych narzędzia wydawały się odpowiednie, a co innego okazywało się już we wdrożeniach. Generalnie żadne z nich nie zaspokajało naszych potrzeb. Po kilku takich podejściach w firmie narastała frustracja.  Odeszliśmy od myślenia „SAPem”, w ogóle od wszelkich założeń co do dostawcy,  na rzecz precyzyjnego zdefiniowania celów i potrzeb co do nowego rozwiązania:
– integracja danych z różnych systemów (rozproszone źródła danych),
– większa szybkość  ściągania i przetwarzania danych,
– łatwość zarządzania systemem, bez konieczności interwencji informatyków przy każdej zmianie, łatwa i szybka implementacja  tych zmian,
– możliwość przeniesienia kompetencji z programisty IT na użytkownika biznesowego,
– komfortowy interfejs dla użytkownika,
– elastyczne zarządzanie autoryzacją danych,
– krótki czas i niski koszt wdrożenia narzędzia a potem jego użytkowania,
Potrzebowaliśmy elastycznego i wydajnego narzędzia, zrozumiałego i poręcznego dla użytkowników biznesowych, będącego dla nich platformą komunikacji informacji zarządczej, odciążającego kontrolerów od wysyłania użytkownikom informacji, bo będą sami mogli je wytworzyć. Narzędzie musiało być na tyle elastyczne aby wspierać organizację w wyzwaniach stawianych przez zmienne otoczenie rynkowe
Ponownie zrobiliśmy przegląd rynku, sięgnęliśmy do raportów, czasopism, internetowych zestawień. Wiedzieliśmy już, że nie zadowolimy się żadnymi prezentacjami, że wybierzemy się na wizyty referencyjne i poprosimy o wykonanie pilota na naszych danych i przez naszych pracowników. Ostatecznie wybraliśmy system QlickView i firmę mis², która spełniła wszystkie nasze wymagania. Współpracujemy z nią cały czas, rozszerzając wdrożenie z 2013 roku.
DFE. Dlaczego tak ważne jest przetestowanie wybranego rozwiązania na własnych danych? Jak powinno wyglądać takie testowanie? Jak przebiegało u Państwa?
LS: Pilot na własnych danych – czyli danych, które rozumiemy, znamy ich kontekst, wiemy jak je wyciągamy ze źródeł i przetwarzamy – i własnych raportach, pozwala ocenić trafność rozwiązania.  Umożliwia także ocenę wydajności systemu, bo wiemy jakie są aktualne parametry naszej pracy i możemy porównać je z wynikiem pilota. Z tego samego powodu ważne jest, aby pilot wykonali nasi pracownicy, oczywiście po przeszkoleniu i z pomocą dostawcy. Uważam, że tylko dostawca, który zgodzi się na takie postępowania jest wiarygodny, rzeczywiście chce sprzedać rozwiązanie użyteczne dla klienta, a nie po prostu sprzedać system IT.
Firma mis² zgodziła się na takiego pilota, postawiła serwer, podłączyła do naszych danych ze wszystkich spółek grupy, przeszkoliła trzy oddelegowane osoby, w ciągu 5 dni wytworzyła 5 raportów z odpowiednią wizualizacją. W celu weryfikacji przyjazności narzędzia poprosiliśmy również o  przetestowanie wybranego raportu  przez członków zarządu,  najmniej biegłych w rozwiązaniach technologicznych. Po raz pierwszy zobaczyliśmy zadowolenie. To ważne, aby rozwiązania nie testowały osoby najbardziej biegłe w IT, a właśnie te najmniej.
Początkowo wdrożyliśmy 6 aplikacji raportowych Qlick View, do tworzenia scenariuszy na podstawie danych z sześciu systemów. Dzisiaj jest to 60 aplikacji raportowych.
DFE. Jakie korzyści odniosła grupa kapitałowa Impel z wdrożenia systemu controllingowego zbudowanego w technologii QlikView/Qlik Sense?
LS: Najważniejszą korzyścią jest, oczywiście, możliwość przekrojowych i wielowymiarowych analiz, z możliwością dojścia do bardzo szczegółowych danych, dla całej grupy i wszystkich obszarów, budowania scenariuszy, a także stosunkowo mniejszy koszt i większa szybkość ich  otrzymania. Jednak nie mniejszą wartość ma odciążenie pracowników kontrollingu od wysyłania danych do biznesowych ośrodków odpowiedzialności, ponieważ teraz same mogą je pobierać i analizować. Kontrolling  może bardziej skupić się na analizie, szczególnie w nowych przekrojach i zależnościach, co w większym stopniu przyczynia się na jego udział wrozwoju biznesu. Natomiast samodzielność biznesu w analizowaniu danych  – nie tylko przyspiesza pozyskanie potrzebnej wiedzy – także rozwija te jego umiejętności i w efekcie przekłada się na trafniejsze decyzje.
____________
Polecamy także relacje ze spotkania DFE w Poznaniu https://dfe.org.pl/obraz-firmy-w-kazdej-chwili-po-spotkaniu-w-poznaniu/ oraz wywiad z Bożeną Skibicką, ekspertem mis² https://dfe.org.pl/po-pierwsze-wiarygodne-dane-podstawowe/

W blogu Spostrzeżenia 2019/11/20 - 23:38 Źródło

Tak się złożyło się, że ostatnio sporo czytałam i rozmawiałam o wybitnych fizykach i matematykach XX wieku, wśród których było też sporo Polaków, jak Stanisław Ulam, Leopold Infeld czy Józef Rotblat. Rotblat był też laureatem pokojowej Nagrody Nobla, paszport miał brytyjski, ale urodził się i 30 lat mieszkał w Polsce, zawsze uważał się za Polaka i do końca życia płynnie mówił po polsku. Życie ich wszystkich rozdarte było na kilka krajów, bo przypadło na okres II wojny światowej i późniejszy podział świata przez żelazną kurtynę. Ale nie o tym chciałam mówić.
Wszystkich trzech łączy również to, że pracowali nad bombą atomową, Ulama można uważać wręcz za jej współtwórcę. Każdy z nich miał też wielki dylemat, czy swoją pracą naukową - w tym tą związaną z powstaniem bomby atomowej - czynią świat lepszym. Miało go też wielu innych naukowców, różnych narodowości. Nauka być może jest zawsze dobra, ale jej zastosowania niekoniecznie. Na ile naukowcy - albo też nowych narzędzi, technologii - odpowiadają za te zastosowania?
Warto się nad tym zastanowić w kontekście AI i skorzystać z wniosków, bo dzisiaj sztuczna inteligencja jest taką bombą atomową, która ma dać nowy lepszy świat, ale ten szlachetny cel może zostać wypaczony przez ludzi o nieszlachetnych intencjach. Bomba atomowa miała uratować wolny świat, ale mogła też stać się igraszką sił zniewalających. I dzisiaj nie wiadomo jak będzie, ale pewne sposoby ograniczania tego ryzyka znaleziono, rozpoznano też te ryzyka, z początku nieoczywiste. 
Przykład tych trzech naukowców jest pouczający, bo to konkretni ludzi, z konkretnymi życiorysami, mający wpływ na produkt niezwykle silnie oddziałujący na rzeczywistość.
Stanisław Ulam nie miał żadnych wyrzutów sumienia, że pracuje nad bombą, ponieważ nie wierzył w NATO, nie wierzył że NATO powstrzyma Związek Radziecki, uważał NATO za chwyt propagandowy, w ogóle nie ufał wojskowym. Natomiast ufał naukowcom, wierzył, że dopóki naukowcy zajmują się bombą, będą w stanie powstrzymać jej nieodpowiedzialne używanie przez fanatyków. Sam nazywał swój pogląd idealistycznym. 
Życie jednak wykręciło mu psikusa w postaci poważnej choroby mózgu, podczas której majaczył, miał halucynacje, opowiadał niestworzone rzeczy, ale także mówił o swojej pracy w Los Alamos. Były bardzo poważne obawy, czy w trakcie choroby nie zdradzi mimowolnie tajemnic swojej pracy nad bombą. Nic takiego co prawda się nie stało, został wyleczony, ale pozostało pytanie, co dzieje się z naszą wiedzą, gdy tracimy władzę nad naszym rozumem i wolą w skutek choroby.
Leopold Infeld, wybitny fizyk, współpracownik Einsteina, też przyczynił się do powstania bomby, z czego nie był dumny. Ale istotniejszy jest inny wątek. Jeszcze przed wojną znalazł się w Kanadzie, pracował na Uniwersytecie w Toronto. Po wojnie pragnął wrócić do Polski, nie znając w ogóle komunistycznych realiów, ale szczerze pragnąc przyczynić się do rozwoju nauki w Polsce. Był naiwny, uważał, że chodzi o naukę a nie wzmocnienie sił militarnych Rosji, został wykorzystany przez komunistów w grze propagandowej z Zachodem, ale w żadną współprace w wojskiem czy służbami nie dał się wciągnąć.  Zapłacił za powrót do Ojczyzny utratą zaufania europejskich i amerykańskich naukowców, przypuszczających, ż pracuje na rzecz komunistów, został ogłoszony zdrajcą, odebrano mu obywatelstwo kanadyjskie. Ale spełnił to, co uważał za swoją misję życiową: zbudować warunku do rozwoju fizyki w Polsce, nadać jej wysoką rangę. Ostatecznie też włączył się do działań opozycji  antykomunistycznej,  został też zrehabilitowany przez Uniwersystet Toronto. Jego syn Eryk był wybitnym polskim naukowcem, również traktującym naukę jako patriotyczne powołanie.
Jednak ta okoliczność - chęć służby nauce swojej Ojczyzny, nawet wtedy gdy ta Ojczyzna jest we władzy wojowniczego reżimu oraz naiwność naukowca w sprawach politycznych - jest jednym z ryzyk, gdy dana osoba jest posiadaczem ważnej wiedzy w takiej sprawie jak bomba atomowa czy sztuczna inteligencja.
A teraz Józef Rotblat. 
W czasach zimnej wojny Rotblat został czołowym krytykiem koncepcji odstraszania militarnego za pomocą posiadania broni masowej zagłady. Przekonywał, iż broń taka zagraża dalszemu istnieniu ludzkości. Wraz z Bertrandem Russellem doprowadził do powstania w 1957 międzynarodowego ruchu pacyfistycznego uczonych działających na rzecz rozbrojenia nuklearnego pod nazwą Pugwash. Ruch ten skupiał ludzi nauki z obu stron dzielącej Europę na pół „żelaznej kurtyny”. Rotblat dążył do zbliżenia naukowców z obu bloków politycznych oraz ich solidarności przeciwko rozwijaniu badań naukowych mogących owocować nowymi rodzajami broni. Postulował, aby naukowcy przyjęli sposób postępowania na wzór lekarskiej przysięgi Hipokratesa, tzn. aby powstrzymywali zaspokajanie własnej ciekawości naukowej i samoograniczali się w badaniach, jeśli ich wyniki mogłyby okazać się zgubne dla świata.
W 50 rocznicę Hiroszimy otrzymał Pokojową Nagrodę Nobla.
Słowo należy się Russellowi, wybitnemu brytyjskiemu filozofowi, matematykowi, literatowi i działaczowi społecznemu. Otrzymał nagrodzę Nobla, ale też siedział w więzieniu za sprzeciw wobec wojny, wyrzucano go z uczelni i oskarżano o brak moralności - ten wzór moralności!!!! Był gościem otwarcie krytykującym chrześcijaństwo za podwójną moralność, czlowiekiem prawdziwym i szczerym do bólu, pacyfistą w każdym calu, nie akceptującym jakiejkolwiek wojny. Skarb wydawałoby się, ale tylko dla wybitnych umysłów. Einstein bronił go przed represjami tymi słowami: „wspaniałe osobowości zawsze napotykały na brutalną opozycję miernych umysłów". Russell był człowiekiem czynu, działał na rzecz swoich ideałów. 
Tak to właśnie jest. Liczy się osobista postawa człowieka, który świadomie ponosi konsekwencje swoich poglądów, a nie tylko je głosi.
Dzisiaj w wielu firmach, na uczelniach, w agendach rządowych pracuje się nad rozwiązaniami sztucznej inteligencji, która w postaci bardziej zaawansowanej niż obecna będzie mieć wielką moc rażenia. Nawet jeśli napiszemy kodeksy postępowania, nawet jeśli założymy prawne ograniczenia i zasady, nawet jeśli odpowiednio wykreujemy rachunek ekonomiczny, nawet jeśli powołamy kontrolujące organizacje międzynarodowe, zawsze pozostanie ryzyko w postaci człowieka, który ma w głowie kluczową wiedzą, a który jest poddany różnym emocjom, uczuciom, chorobom, ułomnościom oraz  intelektualnym i moralnym ograniczeniom. 
Uważam, że jeśli zdecydujemy się na rozwój sztucznej inteligencji, to po pierwsze, przede wszystkim musimy skupić się na jakości człowieka, starając się z całych sił formować ludzi mądrych, czułych i zaangażowanych,  a po drugie, nastawmy się na najgorszy możliwy scenariusz.

Jeśli nie, to lepiej zaciągnijmy hamulec.

W blogu Spostrzeżenia 2019/11/18 - 00:59 Źródło

Generalnie można podzielić strategie gry rynkowej, bądź inwestycyjnej, na oparte o analizę fundamentalną i techniczną, która jest de facto formą, na ogół uproszczoną, analizy powiązań statystycznych. Dla precyzji wydaje się lepiej mówić o analizie typu fundamentalnego i statystycznego.
Ta pierwsza opiera się o znajomość powiązań gospodarczych, społecznych, politycznych oraz psychologii mas. Odwołuje się do istniejących zależności i przykładów, że w przeszłości w podobnej sytuacji nastąpił określony skutek i stąd można wnioskować, że to się powtórzy. Takie rozumowanie intuicyjnie brzmi przekonywująco. Jednak jest ono obarczone wielkim ryzykiem błędu. Po pierwsze, identyczne sytuacje przecież nigdy nie występują. Następnie w przedstawianych sytuacjach rozpatrywany jest jeden, dwa lub trzy mechanizmy, które wystąpiły w omawianym przypadku, a  w rzeczywistości współzależności są tysiące. Diagnoza, że mamy sytuację identyczną bądź podobną nie opiera się też na przedstawieniu wszechstronnej analizy - nigdy nie możemy być pewni czy uwzględniliśmy wszystkie istotne elementy.
Wreszcie te same fakty mogą być efektem zupełnie innych przyczyn i powodować również diametralnie różne reakcje rynkowe. Siła oddziaływania poszczegółnych informacji (pod wpływem informacji uczestnicy rynku podejmują decyzje) może być również diametralnie różna: od wywołania praktycznie żadnej reakcji po reakcje  lawinowe, histeryczne. Również kierunek reakcji może być różny.
Przywołajmy dwa zaledwie przykłady. Wygrana w wyborach parlamentarnych partii socjaldemokratycznych oznacza dla firm, że obciążenia podatkowe będą rosły w celu pokrycia kosztów transferów socjalnych, a pracownicy stawać się będą bardziej roszczeniowi. Przekłada się to na zmniejszenie realizowanego zysku, a nawet jego całkowitą utratę i bankructwo firm. Ta ogólnie znana zależność powoduje, że oczekiwanie wygranej socjaldemokratów przekłada się na spadek cen akcji, a po ich wyborze powinny ceny te jeszcze bardziej spaść.
Tymczasem zdarza się często, że ogłoszenie wyników zwycięstwa lewicy łączy się z początkiem wzrostów na giełdzie. Skąd tak się dzieje? Otóż w okresie poprzedzającym wybory z powodu oczekiwanego zwycięstwa lewicy kursy spadają i często w wyniku paniki następują nadmierne spadki. Kiedy więc oczekiwanie sprawdzi się, kończy się spekulacja na spadki i kursy odwracają się. Tym bardziej, że często zgodnie z zasadą strach ma ‘’wielkie oczy‘’ zmiany podatkowe nie są tak drastyczne, gdyż obietnice wyborcze nie są zawsze wykonywane, w związku z tym uruchamia się myślenie, że jednak nie będzie tak źle.
Okupacja Kuwejtu przez Saadama Huseina i zapowiedź wyzwolenia go przez koalicję państw zachodnich uruchomiła lęk przed katastrofą, zapowiedziano podpalenie pól naftowych, a w efekcie spadek podaży ropy. Ceny ropy poszybowały w górę. Prasa przewidywała ich następny drastyczny wzrost po wybuchu wojny oswobadzającej Kuwejt. Spekulanci wykupywali więc wszystkie zapasy ropy i przyszłą jej produkcję. Wybuch wojny spowodował rzeczywiście kilkugodzinną super hossę,  a następnie jednak jeszcze szybsze spadki. Spekulanci, którzy zakupili ropę rozpoczęli jej sprzedaż, a że kupujących nie było wielu ceny leciały szybko ‘’na południe’’. To z kolei powodowało, że wywołana panika przyspieszyła tempo i zakres spadków. I tak zamiast gwałtownych wzrostów ( super hossy) pojawiła się fala szybkich spadków, a zatem dokładnie odwrotnie.
Na rynku finansowym  często mamy do czynienia, że taka sama, bądź bardzo podobna informacja wywołuje zupełnie przeciwne reakcje. Zjawisko to zdobyło nazwę paradoksów giełdowych i mamy do czynienia z nim częściej niż wielu uczestnikom może to się wydawać. Stąd tak wiele rozsądnie brzmiących oczekiwań w oparciu o analizę fundamentalną może zawieść ich twórców. Pamiętajmy przy tym, że krytyczna ocena prognozy fundamentalnej zrobionej przez zawodowców jest bardzo trudna dla osób nie będących ekspertami w tej dziedzinie. I dlatego, niestety, większość inwestorów nie potrafi wyłapać możliwych zagrożeń.

Aby więc umieć zweryfikować zasadność przedstawionej strategii, zarówno na zwyżkę, jak i spadek cen akcji trzeba mieć dostęp do wiarygodnych i szczegółowych danych z firmy, co nie jest na ogół możliwe oraz znaczną umiejętność oceny funkcjonowania firmy i możliwych zmian w poziomie generowanego zysku. Trzeba zatem mieć również poza znajomością księgowości i rozumienia tzw. kreatywnej księgowości, znajomość stosowanych technik i technologii w danym przedsiębiorstwie i branż,y włącznie z oczekiwanymi możliwymi zmianami. Na ceny surowców, produktów, jak i usług wpływają też bodźce płynące z polityki. Dotyczy to zarówno branży, w których działa przedsiębiorstwo, jak i branż powiązanych zarówno po stronie dostawców( zmian w ewentualnych kosztach pozyskiwania surowców, podzespołów i energii), jak również odbiorców - możliwych zmian po stronie popytu, wreszcie możliwych zmian w cenie siły roboczej, z kolei koszty pracy mogą ulec znacznym zmianom w wyniku zmian politycznych, prawnych i instytucjonalnych. Niewątpliwie powinniśmy ocenić również pozycję danego przedsiębiorstwa wewnątrz branży, jego ewentualna przewagę nad innymi i możliwość jej utraty.
Godnym podkreślenia jest fakt, iż obecnie zmiany w metodach wytwórczych przebiegają nieporównanie szybciej niż w przeszłości, co oznacza, że wydawałoby się dość stabilny popyt może bardzo szybko zaniknąć. Popyt na pył miedziany był znaczny i nie bardzo wyobrażalny był jego zanik dopóty, dopóki nie została wyeliminowana technika kineskopów w aparatach TV. W przeciągu 2-3 lat ów popyt zanikł.

Następną umiejętnością konieczną do zweryfikowania zasadności prognozy gospodarczej jest umiejętność obiektywnej oceny oczekiwanej koniunktury rynkowej i gospodarczej. Oznacza to ocenę koniunktury dla danej gospodarki, gospodarek powiązanych z gospodarką danego kraju, które z kolei mogą być uzależnione od koniunktury w innych krajach, a szczególnie najsilniejszych krajach świata. Jednym z ważnych elementów wpływających na koniunkturę są zachodzące procesy polityczne: od zmian  w wyniku demokratycznych wyborów, przewrotów po zaangażowanie w zimne i gorące wojny.
Wpływ większych wojen oddziaływuje na gospodarkę wielu neutralnych krajów zarówno pozytywnie, jak o negatywnie. Bogacą się one na dostawach do krajów prowadzących wojnę, których gospodarki z jednej strony, mogą podlegać zniszczeniu, a z drugiej strony, wojny generują bardzo znaczny popyt na surowce, materiały i broń - konieczne do prowadzenia wojny. Często również na żywność, gdyż ogołocenie rolnictwa z siły roboczej odbija się na produkcji rolnej.  Równocześnie przerwanie niektórych szlaków transportowych może bardzo istotnie wpłynąć na przesunięcia, zarówno popytu, jak i podaży. Nie mówiąc o tym, że zagrożenie produkcji i dostaw powoduje zmianę cen surowców bądź produktów. Takim dobitnym przykładem są konflikty na Bliskim Wschodzie odbijające się na cenie ropy naftowej, a przez to na gospodarkach prawie wszystkich państw świata.
Niezwykle rzadko w przedstawionych rekomendacjach prezentowana jest taka wielopiętrowa analiza, jeżeli w ogóle jest ona dokonywana i prawie wszystkie, bądź wszystkie elementy są w niej  uwzględniane.  Jeszcze rzadziej owa kompleksowa analiza dokonywana jest samodzielnie, zwykle opiera się na publikowaniu cudzych poglądach tzw. ogólnie uznanych autorytetów. O słabościach takich prognoz pisałem w poprzednim poście.
Dobrym przykładem wpływu bardzo odległych zmian na cenę surowca, ale i również cen akcji firm go wydobywających, jak i tych których jest on podstawowym czynnikiem kosztotwórczym, są wahania cen siarki w pierwszym dziesięcioleciu tego tysiąclecia. Wtedy pod wpływem zmian przepisów w Kanadzie - ograniczenie eksportu - i gwałtownego wzrostu popytu w Chinach w wyniku uruchomienia inwestycji w przemyśle chemicznym, połączonego z opóźnieniem uruchomienia tam kopalń siarki, pojawiała się gwałtowna bańka spekulacyjna, która równie gwałtownie pękła w pod wpływem ujawniania faktu uruchomienia inwestycji wydobywczych.
 
Trudno oczekiwać od przeciętnego ciułacza, a nawet doświadczonego inwestora, aby był w stanie przeprowadzić krytyczną analizę wszystkich owych zależności.
Odnosząc się do rekomendacji adresowanych do szerokiej klienteli zauważmy, że dotyczą one głównie oczekiwania ruchu wzrostowego. A przecież na rynku występują zarówno wzrosty, jak i spadki, i tych drugich wcale nie jest tak mało. Dobrze docierającym do odbiorców, lecz często nieracjonalnym argumentem jest odwoływanie się do istniejącego już trendu wzrostowego i "oczywistej" jego kontynuacji. A przecież trendy nie trwają wiecznie i podlegają odwróceniu.
Analitycy ilustrujący swoje poglądy chętnie odwołują się do przykładów z przeszłości, często potwierdzających konieczność kontynuowania istniejącego już trendu. Taka argumentacja jest dobrze przemawiająca do odbiorcy. Jednak należy, poza powyższymi zastrzeżeniami, przypomnieć, że nic nie powtarza się w sposób absolutnie identyczny i dość nawet odległe różnicę powodują istotnie różną reakcję, co tym łatwiej może się wydarzyć, że rynek orientuje się zawsze na część pojawiających się informacji i zmienia ciągle wagi znaczenia poszczególnych informacji.
To wszystko powoduje że fałszywe prognozy mogą pojawiać się w sposób zupełnie niezamierzony  przez wykonujących analizę, jak i w sposób intencjonalny, gdy duży gracz chcąc zrealizować zyski z już dokonanego ruchu próbuje pobudzić popyt ze strony głównie drobnych inwestorów. Odwrotnie, przy planowanych zakupach można przy pomocy ujawnianych rekomendacji swoich, bądź "niezależnych" ekspertów, starać pobudzić podaż po to, by móc możliwie dogodnie dokonać samemu zakupów. Choć nie jest to postępowanie etyczne, a w niektórych krajach nawet bardzo ostro karane, nie można wykluczyć, że może ono występować i to nawet dość często.

Zastanawiając się nad prognozami opartymi o analizę statystyczną i ich logikę należy zwrócić uwagę, na eliminacje przypadkowości prezentowanego sukcesu i prawdopodobieństwa jego kontynuowania. Oznacza to dość proste ustalenie, czy przedstawiona próba jest reprezentatywna i przy jakim poziomie ufności oraz jakie jest prawdopodobieństwo odwrócenia trendu. W wytłumaczeniu zasad budowy strategii znaleźć się powinno uzasadnienie doboru instrumentów inwestycyjnych oraz przyjętego horyzontu czasowego. Podobnie jak w przypadku budowy strategii opartej o analizę fundamentalną portfel powinien być zdywersyfikowany,  a w dywersyfikacji nie może być pominięta analiza wewnętrznych korelacji pomiędzy instrumentami.
Poziom dywersyfikacji wynikać powinien z akceptowanego przez inwestora poziomu wahań krzywej dochodowości. Wreszcie niewątpliwie rygorystycznie stosowana musi być  zasada ograniczenia ryzyka. To znaczy, że zawsze przy otwieraniu nowej pozycji należy przyjąć maksymalny poziom akceptowanej straty i rygorystycznie stosować się do niej. Z kolei przy ustalaniu poziomu akceptowanej straty należy wziąć pod uwagę zakres oczekiwanego ruchu i ich wzajemną relację. Dopuszczenie do odstępstw w tej materii, zgodnie z zasadą nadziei, że niedługo niekorzystny dla nas trend się odwróci, wcześniej czy później prowadzi do brutalnego przywołania do rzeczywistości.
Ostatnią zasadą, która powinna być stosowana, a w każdym razie jej brak prowadzi do istotnego obniżenia dynamiki rentowności, jest zasada scalling in i scalling out. Polega ona na tym, że proporcjonalnie do prawdopodobieństwa ruchu w określonym kierunku zwiększamy lub zmniejszamy wielkość zaangażowania. Zasada ta, niestety, również nie jest często stosowana.
Porównując zakres umiejętności jaki należy posiadać, aby móc ocenić zasadność oferowanych obu rodzajów strategii inwestycyjnych, zauważmy, że rozumowania typu fundamentalnego wymagają nieporównanie większej ilości interdyscyplinarnej wiedzy a analizy oparte o zależności statystyczne wymagają specjalistycznej, lecz z jednej choć szerokiej i skomplikowanej dziedziny.
Poświęćmy wreszcie uwagę zagadnieniu dywersyfikacji portfela inwestycyjnego, a konkretnie wymiarom w których należy ją dokonywać.
Najbardziej znana i rozpowszechniona jest dywersyfikacja branżowa w papiery wartościowe różnych branż oraz w różne typy instrumentów inwestycyjnych( akcje, obligacje, lokaty w walutach obcych, złoto, instrumenty pochodne, nieruchomości i t.d.). Należy jednak pamiętać, że naprawdę skuteczna dywersyfikacja powinna obejmować również zróżnicowanie geograficzne oraz sezonowe, czego prostym przykładem może być sprzedaż lodów latem, choinek przed Bożym Narodzeniem i prowadzenie szkółki narciarskiej zimą.
Prawie niestosowaną jest metoda dywersyfikacji metodologicznej, co oznacza, że sygnały do dokonywania inwestycji, w tym zwiększenia i zmniejszenia pozycji oraz wyjścia z niej opieramy na zupełnie innych metodologiach, stosując przy tym filtry pochodzące również z różnych metodologii. Jest to bez wątpienia najbardziej zaawansowana forma dywersyfikacji, a stosowanie wszystkich rodzajów dywersyfikacji prowadzi do zmniejszenia się stopnia wahań krzywej rentowności, nie odbijając się na spadku tempa jej wzrostu, przeciwnie podnosząc go. Podsumowując:

  1. Stosunkowo łatwiej jest ocenić zasadność oferowanej strategii o ile opiera się ona o zależności natury statystycznej, aczkolwiek nie jest to też proces prosty.
  2. Można korzystać z wzorcowych modeli publikowanych w specjalistycznych nisko nakładowych biuletynach, opartych zarówno o analizę fundamentalną, jak i statystyczną stosowanych strategii, oczywiście przy zachowaniu kilku zastrzeżeń:
  3. Strategie muszą posiadać wiarygodny track record;
  4. Muszą zawierać w sobie dostatecznie płynne aktywa;
  5. Inwestycje dokonywane powinne być w warunkach zapewniających ich bezpieczeństwo.

Można wreszcie wyszukać instrumenty inwestycyjne zbudowane przez instytucje opisane w poprzednim artykule "Dobór doradców inwestycyjnych i firm zarządzających kapitałem. Co jest ważne, a co nieistotne" oraz zbudowane przez nie produkty inwestycyjne według wyżej wymienionych zasad.Takie strategie są w stanie realizować kilkudziesięcioprocentowe stopy zwrotu rok do roku. Ważne jest  przy tym zwrócenie uwagi na relację zysku do maksymalnego drawdownu, jak również dopasowania do indywidualnego profilu awersji do ryzyka, oraz  minimum i maximum wielkości portfela inwestycyjnego z punktu widzenia niezakłócania własnymi posunięciami rynków, na których podejmujemy inwestycje, wreszcie płynności dóbr inwestycyjnych i samego  stopnia płynności instrumentu.
 
Życzę przemyślanych i udanych inwestycji na rynkach finansowych.

W blogu Spostrzeżenia 2019/11/16 - 18:29 Źródło

Niestety, nie mam tego filmiku w oryginale, więc udostępniam link. Bardzo pouczające zobrazowanie różnicy w krótko- i długoterminowym myśleniu.
https://www.linkedin.com/posts/pascalbornet_inspiration-management-strategy-activity-6601110980363677696-R0zn 

W blogu Spostrzeżenia 2019/11/16 - 18:29 Źródło

W poprzednim artykule przyjrzeliśmy się niektórym z używanych argumentów przez sprzedawców usług  zarządzania kapitałem oraz który z oferentów tych usług może być brany pod uwagę. Teraz zastanowimy się nad zasadnością proponowanych rozwiązań inwestycyjnych , przedstawioną strategią, o ile w ogóle cokolwiek zechcą przedstawić, wreszcie  wiarygodnością używanych argumentów.
 
Na rynku asset management istnieje wielu oferentów, którzy jedynie zapewniają solennie o swych wybitnych kompetencjach, doświadczeniu, posiadaniu własnej wspaniałej, oryginalnej metodologii, nazywanej często nowatorską, wysoce dochodową strategią, o której jednak nic bliższego nie chcą ujawnić . Istnieją wreszcie tacy, którzy odwołują się do opierania swoich decyzji inwestycyjnych na opiniach najbardziej uznanych autorytetów. Wobec wszystkich tych radziłbym zachować jak najwyższy sceptycyzm.
 
 Opowieści o wybitności , własnych kompetencjach i oryginalnych , acz nie ujawnianych  metodach  potraktujmy maksymą  -  ,, wszystko to być może, ale ja to między bajki włożę ". Zatrzymajmy się jednak na chwile przy argumencie przemawiajacym do wielu osób, iż opinie uznanych guru to rozsądna i bezpieczna metoda inwestowania. Ośmielam się  zwrócić jednak uwagę, że niezależnie , czy znawcy mają rację , czy też nie, już  samo upublicznienie ich opinii wpływa na rynek. Uczestnicy rynku przyjmując bowiem za dobrą monetę pogląd autorytetów, próbują przechytrzyć , to co ma ich zdaniem nieuchronnie nastąpić. Ponieważ tak postępujących osób jest bardzo wiele, to co miało się wydarzyć zdaniem autorytetów,  w ogóle  nie następuje.  Zatem samo upublicznienie poglądów, które akceptuje znaczna część rynku zmienia rzeczywistość i to czasem diametralnie. I tak na przykład, o ile autorytety zapowiedzą , że indexy osiągną pewien pułap, a następnie nastąpi odwrócenie trendu na spadkowy, to prawie na pewno indexy w ogóle nie osiągną tego pułapu. Inwestorzy wierząc bowiem w poziom, przy którym nastąpi odwrócenie spróbują być sprytniejsi i wcześniej zaczną sprzedawać, a  równocześnie nie pojawią się ci , którzy mieli przy bliskim oczekiwanego poziomu odwróceniania  być skłonni do zakupów - stąd ceny w ogóle nie osiągną poziomu zapowiedzianego przez uznanych znawców. W rzeczywistości skutek upublicznienia opinii guru nie musi być aż tak łatwo widoczny, lecz zawsze jej samo upublicznienie zmienia rynek.
 
Przechodząc do bardziej racjonalnego argumentu podnoszonego przez sprzedawców usługi asset management jakimi są -  dotychczasowe wyniki osiągnięte przez zarządców, to dobrze jest zwrócić uwagę na parę punktów zanim uznamy, że przytaczany wynik jest znaczącym argumentem :
 
Zacznijmy od dość oczywistego  punktu - pewności, że wynik ten został osiągnięty i to w efekcie faktycznie wykonanych transakcji. Przedstawiana ewentualna kopia rachunku inwestycyjnego musi być wiarygodnie uwierzytelniona, lub poświadczone zaświadczenie, o wykonaniu takich transakcji. Kwestia ta jest ważna, nie tylko z powodu ograniczoności zaufania do przedstawionych wyników. Również dlatego, że może być osiągnięty na bardzo małej ilości papierów wartościowych, a rynek jest mało płynny, a zatem nie do powtórzenia w   ilości nas interesującej. Wreszcie człowiek istota emocjonalna często zupełnie inaczej podejmuje decyzje,  gdy wie, że jest to transakcja wirtualna, a zupełnie inaczej, gdy ma do czynienia z realnymi i to dużymi pieniędzmi. Najlepszą metodą jest obserwowanie samemu przez jakiś czas wykonywanych transakcji. Można też dać wiarę w wyniki tzw. portfeli wzorcowych  publikowanych w niskonakładowych biuletynach specjalistycznych.  Nadal pozostaje zastrzeżenie , o różnicy między transakcjami realnymi, a jedynie rekomendacjami, lecz można to zastrzeżenie  traktować znacznie łagodniej, jako że wydający takie biuletyny są na ogół doświadczonymi analitykami z wieloletnią praktyką, a zatem działającymi znacznie mniej emocjonalnie. W wysokorozwiniętych krajach takich wzorcowych portfeli w niskonakładowych i drogich biuletynach jest sporo i duża z nich część osiąga ponadprzeciętne wyniki.
Przy wyborze ewentualnego zarządcy powinniśmy sprawdzić nie tylko jego reputację na rynku, ale i upewnić się, gdzie przechowywane będą środki (rating banku i reżim prawny któremu on podlega) oraz w jakie instrumenty finansowe zostaje dokonana inwestycja, czy ich emitenci podlegają wiarygodnemu nadzorowi, który chroni interesy inwestora, co nie zawsze i wszędzie występuje. Czy wreszcie są to inwestycje bezpośrednie i jakie z nią mogą łączyć się zagrożenia ( jest to samo w sobie skomplikowane zagadnienie, którego w tym artykule nie jestesmy w stanie omówić).Wreszcie jaka jest płynność dokonanej inwestycji i na ile odpowiada ona naszym oczekiwaniom. Pamiętać należy, że płynność większości instrumentów inwestycyjnych podlega bardzo dużym wahaniom. Szczególnie dotyczy to inwestycji bezpośrednich, reklamowanych jako bezpieczne bo zabezpieczone co najmniej częściowo nieruchomościami. Nieruchomości są generalnie mało płynne ( poza okresami hossy), co może oznaczać, że szczególnie wtedy, gdy będziemy chcieli je spieniężyć - będzie to niemożliwe. Bardzo dobrym przykładem jest hossa w budownictwie w Bułgarii w latach 2002-2008  kiedy to wielu zagranicznych spekulantów dokonało dużej ilości inwestycji, wzmacniając jeśli nie wywołując ową hossę i którzy dotąd nie są w stanie w ogóle ich spieniężyć.
Koniecznie musimy poznać metody ograniczania ryzyka inwestycyjnego i czy ono odpowiada naszemu profilowi awersji do ryzyka. W tym zapoznać się z zasadami zarządzania dywersyfikacją, dopasowywania ich do akceptowanego przez siebie ryzyka (co nie jest takie proste) i zróżnicowanie dywersyfikacji, a właściwie zróżnicowanie wymiarów dywersyfikacji. Dobra, skuteczna dywersyfikacja nie może być jednowymiarową np. pomiędzy różne branże przemysłu, powinna uwzględniać inne formy zróżnicowania np. horyzontu czasowego  inwestycji czy metod wyszukiwania sygnałów, co już nie jest takie częste. Podobnie upewnić się należy,  czy i w jakiej wysokości utrzymywana jest rezerwa gotówkowa. Okazuje się bowiem, że utrzymywanie części w sposób wysoce płynny prowadzi do osiągania na dłuższą metę wyższej efektywności pomimo, że część środków ‘’nie pracuje’’ lub na bardzo niewielką stopę zysku. Wytłumaczeniem tej zależności jest fakt, że posiadane rezerwy nawet długo nie pracujące mogą być bardzo efektywnie zainwestowane w sytuacji gwałtownego i wyraźnego wychylenia się cen w dół bądź do góry,  co zdarza się co pewien czas w sposób mniej lub bardziej nieoczekiwany.
Teraz przejdźmy do zasadniczego punktu, jak ocenić strategię przedstawioną przez firmę zarządzającą.
Załóżmy, że proponujący oferent spełnia warunki omówione wyżej, są to jednak warunki zaledwie konieczne bądź sprzyjające osiąganiu ponadprzeciętnej rentowności, ale niedostateczne by osiągać ją skutecznie długofalowo. Musi on posiadać strategię, a ta musi być na tyle elastyczna by móc osiągać pozytywne wyniki w zmieniającej się sytuacji rynkowej.
 Jak zatem ocenić strategię? Generalnie można podzielić strategie gry rynkowej, bądź inwestycyjnej na opartej o analizę fundamentalną i techniczną, która jest de facto formą, na ogół uproszczoną analizy powiązań statystycznych. Dla precyzji wydaje się lepiej mówić o analizę typu fundamentalnego i statystycznego.
Ta pierwsza opiera się o znajomość powiązań gospodarczych, społecznych, politycznych oraz psychologii mas. Odwołuje się do istniejących zależności i przykładów, że w przeszłości w podobnej sytuacji nastąpił określony skutek i stąd można wnioskować, że to się powtórzy.  .Takie rozumowanie intuicyjnie brzmi przekonywująco. Jednak jest ono obarczone wielkim ryzykiem błędu. Po pierwsze identyczne sytuacje przecież nigdy nie występują. Następnie w przedstawianych sutyacjach rozpatrywany jest jeden, dwa lub trzy mechanizmy, które wystąpiły w omawianym przypadku, a  w rzeczywistości współzależności są tysiące. Diagnoza, że mamy sytuację identyczną bądź podobną nie opiera się też na przedstawieniu wszechstronnej analizy - nigdy nie możemy być pewni czy uwzględniliśmy wszystkie istotne elementy.
Wreszcie te same fakty mogą być efektem zupełnie innych przyczyn i powodować również diametralnie różne reakcje rynkowe. Siła oddziaływanie poszczegółnych informacji (pod wpływem informacji uczestnicy rynku podejmują decyzje) może być również diametralnie różna,  od wywołania praktycznie żadnej reakcji po reakcje  lawinowe, histeryczne. Również kierunek reakcji może być różny. Przywołajmy dwa zaledwie przykłady. Wygrana w wyborach parlamentarnych partii socjaldemokratycznych oznacza dla firm, że obciążenia podatkowe będą rosły w celu pokrycia kosztów zdobyczy socjalnych, a pracownicy stawać się będą bardziej roszczeniowi. Przykłada się to na zmniejszenie realizowanego zysku a nawet jego całkowitą utratę i bankructwo firm.  Ta ogólnie znana zależność powoduje, że oczekiwanie wygranej socjaldemokratów przekłada się na spadek cen akcji, a po ich wyborze powinny ceny te jeszcze bardziej spaść. Tym czasem zdarza się często, że ogłoszenie wyników łączy się z początkiem wzrostów na giełdzie. Skąd tak się dzieje? Otóż w okresie poprzedzającym wybory z powodu oczekiwanego zwycięstwa lewicy kursy spadają i często w wyniku paniki następują nadmierne spadki. Kiedy więc oczekiwanie sprawdzi się, kończy się spekulacja na spadki i kursy odwracają się. Tym bardziej, że często zgodnie z zasadą strach ma ‘’wielkie oczy‘’ zmiany podatkowe nie są tak drastyczne, gdyż obietnice wyborcze nie są zawsze wykonywane w związku z tym uruchamia się myślenie, że jednak nie będzie tak źle. Okupacja Kuwejtu przez Saadama Huseina i zapowiedź wyzwolenia go przez koalicję państw zachodnich uruchomiła lęk przed katastrofą, zapowiedziano podpalenie pól naftowych, a w efekcie spadek podaży ropy. Ceny ropy poszybowały w górę. Prasa przewidywała ich następny drastyczny wzrost po wybuchu wojny oswobadzając Kuwejt. Spekulanci wykupywali więc wszystkie zapasy ropy i przyszłą jej produkcję. Wybuch wojny spowodował rzeczywiście kilkugodzinną super hossę,  a następnie jednak jeszcze szybsze spadki. Spekulanci, którzy zakupili ropę rozpoczęli jej sprzedaż, a że kupujących nie było wielu ceny leciały szybko ‘’na południe’’. To z kolei powodowało, że wywołana panika przyspieszyła tempo i zakres spadków. I tak zamiast gwałtownych wzrostów ( super hossy) pojawiła się fala szybkich spadków, a zatem dokładnie odwrotnie.
Na rynku finansowym  często mamy do czynienia, że taka sama, bądź bardzo podobna informacja wywołuje zupełnie przeciwne reakcje. Zjawisko to zdobyło nazwę paradoksów giełdowych i mamy do czynienia z nim częściej niż wielu uczestnikom może to się wydawać. Stąd tak wiele rozsądnie brzmiących oczekiwań w oparciu o analizę fundamentalną może zawieść ich twórców. Pamiętajmy przy tym, że krytyczna ocena prognozy fundamentalnej zrobionej przez zawodowców jest bardzo trudna dla osób nie będących ekspertami w tej dziedzinie. I stąd niestety  dlatego większość inwestorów nie potrafi wyłapać możliwych zagrożeń.
Aby więc umieć zweryfikować zasadność przedstawionej strategii zarówno na zwyżkę jak i spadek cen akcji trzeba mieć dostęp do wiarygodnych i szczegółowych danych z firmy, co nie jest na ogół możliwe oraz znaczną umiejętność oceny funkcjonowania firmy i możliwych zmian w poziomie generowanego zysku. Trzeba zatem mieć również poza znajomością księgowości i rozumienia tzw. kreatywnej księgowości znajomość stosowanych technik i technologii w danym przedsiębiorstwie i branży włącznie z oczekiwanymi możliwymi zmianami. Na ceny surowców, produktów jak i usług wpływają też bodźce płynące z polityki. Dotyczy to zarówno branży w których działa przedsiębiorstwo jak i branż powiązanych zarówno po stronie dostawców( zmian w ewentualnych kosztach pozyskiwania surowców, podzespołów i energii) jak również odbiorców - możliwych zmian po stronie popytu. Wreszcie możliwych zmian w cenie siły roboczej, z kolei koszty pracy mogą ulec znacznym zmianom w wyniku zmian politycznych, prawnych i instytucjonalnych. Niewątpliwie powinniśmy ocenić również pozycję danego przedsiębiorstwa wewnątrz branży, jego ewentualna przewagę nad innymi i możliwość jej utraty.
Godnym podkreślenia jest fakt, iż obecnie zmiany w metodach wytwórczych przebiegają nieporównanie szybciej niż w przeszłości, co oznacza, że wydawałoby się dość stabilny popyt może bardzo szybko zaniknąć. Popyt na pył miedziany był znaczny i nie bardzo wyobrażalne był jego zanik dopóty, dopóki nie została wyeliminowana technika kineskopów w aparatach TV. W przeciągu 2-3 lat ów popyt zanikł.
Następną umiejętnością konieczną do zweryfikowania zasadności prognozy gospodarczej jest umiejętność obiektywnej oceny oczekiwanej koniunktury rynkowej i gospodarczej. Oznacza to ocenę koniunktury dla danej gospodarki, gospodarek powiązanych z gospodarką danego kraju, które z kolei mogą być uzależnione od koniunktury w innych krajach a szczególnie najsilniejszych krajach świata. Jednym z ważnych elementów wpływających na koniunkturę są zachodzące procesy polityczne. Od zmian  w wyniku demokratycznych wyborów, przewrotów po zaangażowanie w zimne i gorące wojny. Wpływ większych wojen oddziaływuje na gospodarkę wielu neutralnych krajów zarówno pozytywnie. Bogacą się one na dostawach do krajów prowadzących wojnę, których gospodarki z jednej strony mogą podlegać zniszczeniu, a z drugiej strony wojny generują bardzo znaczny popyt na surowce, materiały i broń - konieczne do prowadzenia wojny. Często również żywność gdyż ogołocenie rolnictwa z siły roboczej odbija się na produkcji rolnej.  Równocześnie przerwanie niektórych szlaków transportowych może bardzo istotnie wpłynąć na przesunięcia zarówno popytu, jak i podaży. Nie mówiąc o tym, że zagrożenie produkcji i dostaw powoduje zmianę cen surowców bądź produktów. Takim dobitnym przykładem są konflikty na Bliskim Wschodzie odbijające się na cenie ropy naftowej, a przez to na gospodarkach prawie wszystkich państw świata.
Niezwykle rzadko w przedstawionych rekomendacjach prezentowana jest taka wielopiętrowa analiza. Jeżeli w ogóle jest ona dokonywana i prawie wszystkie, bądź wszystkie elementy są w niej  uwzględniane.  Jeszcze rzadziej owa kompleksowa analiza dokonywana jest samodzielnie, normalnie opiera się na publikowaniu cudzych poglądach tzw. ogólnie uznanych autorytetów. O słabościach takich prognoz pisaliśmy wyżej. Dobrym przykładem wpływu bardzo odległych zmian na cenę surowca, ale i również cen akcji firm go wydobywających, jak i tych których jest on podstawowym czynnikiem kosztotwórczym są wahania cen siarki w 1 dziesięcioleciu tego tysiąclecia, kiedy to pod wpływem zmian przepisów w Kanadzie -ograniczenie eksportu i gwałtownego wzrostu popytu w Chinach w wyniku uruchomienia inwestycji w przemyśle chemicznym połączonego z opóźnieniem uruchomienia kopalń siarki pojawiała się gwałtowna bańka spekulacyjna, która równie gwałtownie pękła w pod wpływem ujawniania faktu uruchomienia inwestycji wydobywczych.
 
Trudno oczekiwać od przeciętnego ciułacza, a nawet doświadczonego inwestora, aby był w stanie przeprowadzić krytyczną analizę wszystkich owych zależności.
Odnosząc się do rekomendacji adresowanych do szerokiej klienteli zauważmy, że dotyczą one głównie oczekiwania ruchu wzrostowego. A przecież na rynku występują zarówno wzrosty jak i spadki, i tych drugich wcale nie jest tak mało. Dobrze docierającym do odbiorców, lecz często nie racjonalnym argumentem jest odwoływanie się do istniejącego już trendu wzrostowego i ‘’oczywistej ’’jego kontynuacji. A przecież trendy nie trwają wiecznie i podlegają odwróceniu.
Analitycy bowiem i ilustrujący swoje poglądy chętnie odwołują się do przykładów z przeszłości, często potwierdzającym konieczność kontynuowania istniejącego już trendu. Taka argumentacja jest dobrze przemawiająca do odbiorcy. Jednak należy poza powyższymi zastrzeżeniami przypomnieć, że nic nie powtarza się w sposób absolutnie identyczny i dość nawet odległe różnicę powodują istotnie różną reakcję, co tym łatwiej może się wydarzyć, że rynek orientuje się zawsze na część pojawiających się informacji i zmienia ciągle wagi znaczenia poszczególnych informacji.
To wszystko powoduje że fałszywe prognozy mogą pojawiać się w sposób zupełnie niezamierzony  przez wykonujących analizę, jak i w sposób intencjonalny, gdy duży gracz chcąc zrealizować zyski z już dokonanego ruchu próbuje pobudzić popyt ze strony głównie drobnych inwestorów. Odwrotnie, przy planowanych zakupach można przy pomocy ujawnianych rekomendacji swoich, bądź ‘’niezależnych’’ ekspertów starać pobudzić podaż, po to, by móc możliwie dogodnie dokonać samemu zakupów. Choć nie jest to postępowanie etyczne, a w niektórych krajach nawet bardzo ostro karane nie można wykluczyć, że może ono występować i to nawet dość często.
Zastanawiając się nad prognozami opartymi o analizę statystyczną i ich logikę należy zwrócić uwagę, na eliminacje przypadkowości prezentowanego sukcesu i prawdopodobieństwa jego kontynuowania. Oznacza to dość proste ustalenie, czy przedstawiona próba jest reprezentatywna i przy jakim poziomie ufności oraz jakie jest prawdopodobieństwo odwrócenia trendu. W wytłumaczeniu zasad budowy strategii znaleźć się powinno uzasadnienie doboru instrumentów inwestycyjnych oraz przyjętego horyzontu czasowego. Podobnie jak w przypadku budowy strategii opartej o analizę fundamentalną portfel powinien być zdywersyfikowany,  a w dywersyfikacji nie może być pominięta analiza wewnętrznych korelacji pomiędzy instrumentami. Poziom dywersyfikacji wynikać powinien z akceptowanego przez inwestora poziomu wahań krzywej dochodowości. Wreszcie niewątpliwie rygorystycznie stosowana musi być  zasada ograniczenia ryzyka. To znaczy zawsze przy otwieraniu nowej pozycji należy przyjąc maksymalny poziom akceptowanej straty i rygorystycznie stosować się do niej. Z kolei przy ustalaniu poziomu akceptowanej straty należy wziąć pod uwagę zakres oczekiwanego ruchu i ich wzajemną relację.Dopuszczenie do odstępstw w tej materii, zgodnie z zasadą nadziei, że niedługo niekorzystny dla nas trend się odwróci, wcześniej czy później prowadzi do brutalnego przywołania do rzeczywistości.
Ostatnią zasadą, która powinna być stosowana, a w każdym razie jej brak prowadzi do istotnego obniżenia dynamiki rentowności jest zasada scalilng in i scalling out. Polega ona na tym, że proporcjonalnie do prawdopodobieństwa ruchu w określonym kierunku zwiększamy lub zmniejszamy wielkość zaangażowania. Zasada ta niestety również nie jest często stosowana.
Porównując zakres umiejętności jaki należy posiadać, aby móc ocenić zasadność oferowanych obu rodzajów strategii inwestycyjnych, zauważmy, że rozumowania typu fundamentalnego wymagają nieporównanie większej ilości interdyscyplinarnej wiedzy a analizy oparte o zależności statystyczne wymagają specjalistycznej, lecz z jednej choć szerokiej i skomplikowanej dziedziny.
Poświęćmy wreszcie uwagę zagadnieniu dywersyfikacji portfela inwestycyjnego, a konkretnie wymiarom w których należy ją dokonywać.
Najbardziej znana i rozpowszechniona jest dywersyfikacja branżowa w papiery wartościowe różnych branż oraz w różne typy instrumentów inwestycyjnych( akcje, obligacje, lokaty w walutach obcych, złoto, instrumenty pochodne, nieruchomości i t.d.). Należy jednak pamiętać, że naprawdę skuteczna dywersyfikacja powinna obejmować również zróżnicowanie geograficzne oraz sezonowe, czego prostym przykładem może być sprzedaż lodów latem, choinek przed Bożym Narodzeniem i prowadzenie szkółki narciarskiej zimą. Wreszcie zupełnie prawie nie stosowaną jest metoda dywersyfikacji metodologicznej, co oznacza, że sygnały do dokonywania inwestycji, w tym zwiększenia i zmniejszenia pozycji oraz wyjścia z niej opieramy na zupełnie innych metodologiach stosując przy tym filtry pochodzące również z różnych metodologii. Jest to bez wątpienia najbardziej zaawansowana forma dywersyfikacji, a stosowanie wszystkich rodzajów dywersyfikacji prowadzi do zmniejszenia się stopnia wahań krzywej rentowności, nie odbijając się na spadku tempa jej wzrostu, przeciwnie podnosząc go. Podsumowując:

  1. możemy stwierdzić że stosunkowo łatwiej jest ocenić zasadność oferowanej strategii o ile opiera się ona o zależności natury statystycznej, aczkolwiek nie jest to też proces prosty. 2.można korzystać z wzorcowych modeli publikowanych w specjalistycznych nisko nakładowych biuletynach opartych zarówno o analizę fundamentalną, jak i statystyczną stosowanych strategii, oczywiście przy zachowaniu kilku zastrzeżeń:
  1. Strategie muszą posiadać wiarygodny track record;
  2. Muszą zawierać w sobie dostatecznie płynne aktywa;
  3. Inwestycje dokonywane powinne być w warunkach zapewniających ich bezpieczeństwo.

Można wreszcie wyszukać instrumenty inwestycyjne zbudowane przez instytucje opisane w poprzednim artykule ‘’Dobór doradców inwestycyjnych i firm zarządzających kapitałem. Co jest ważne, a co nieistotne’’oraz zbudowane przez nie produkty inwestycyjne według wyżej wymienionych zasad.Takie strategie są w stanie realizować kilkudziesięcioprocentowe stopy zwrotu rok do roku. Ważne jest  przy tym zwrócenie uwagi na relację zysku do maksymalnego drawdownu, jak również dopasowania do indywidualnego profilu awersji do ryzyka, oraz  minimum i maximum wielkości portfela inwestycyjnego z punktu widzenia niezakłócania własnymi posunięciami rynków na których podejmujemy inwestycje, wreszcie płynności dóbr inwestycyjnych i samego  stopnia płynności instrumentu.
 
 
Życzę przemyślanych i udanych inwestycji na rynkach finansowych.

W blogu Spostrzeżenia 2019/11/14 - 23:28 Źródło

W dzisiejszych czasach, kiedy każdy ma nieograniczony dostęp do informacji, mogłoby się wydawać, że nikogo już nie da się przechytrzyć. Owszem, jak świat światem pozostanie różnica talentów, ale czy tylko?

Podstawową kwestią myślę nadal pozostanie interpretacja danych. Na przykład gdyby wszyscy poprawnie interpretowali dane, zwroty na zwykłych inwestycjach giełdowych powinny być co najmniej kilkunastoprocentowe, a przecież nie każdy takowe osiąga.

Kolejna sprawa to dostęp do kapitału. Chyba nie sposób nie zauważyć, że jest wprost proporcjonalna zależność pomiędzy wielkością kapitału a wielkością stopy zwrotu. Żebrak co prawda może osiągać zawrotne stopy zwrotu ciągle startując od zera, ale chyba zgodzimy się, że bardziej satysfakcjonująca jest kilkunastoprocentowa, ale nie przypadkowa stopa zwrotu nie-żebraka. 

Kolejna sprawa to tzw.postęp techniczny. Chciałbym tutaj postawić kontrowersyjną tezę, że możliwości postępu technicznego będą się wyczerpywały, a to wskazuje, że decydująca będzie raczej  umiejętność budowania chińskich murów niż supernowoczesnych dział ofensywnych.

W przechytrzaniu konkurencji będzie na koniec cały czas decydowała umiejętność podejmowania skalkulowanego ryzyka. Oznacza to, że przechytrzenia konkurencji nie warto analizować w krótkim horyzoncie czasowym, bo ten kto przechytrzył jednym szybkim strzałem już po kilku miesiącach może być trupem.

Na koniec wreszcie warto się pochylić nad czymś tak nudnym jak konsekwencją i wytrwałością. Dziś wielu biznesmenów patrzy bardzo krótko, tak jakby bała się końca świata. Ci, którzy uwierzą, że koniec świata nie nadejdzie, wygrają!!!

W blogu Spostrzeżenia 2019/11/09 - 20:49 Źródło

Z okazji „dorzynania OFE” przez PiS pozwolę sobie na pewne podsumowanie tej historii z „reformą systemu emerytalnego”. Likwidacja OFE  to jedyny taki przypadek, że politycy zrobili to, co mówiłem.  Tylko, że ten eksperyment nas słono kosztował.
OFE – czyli Obowiązkowe Fundusze Emerytalne, nazywane też dla zmyłki „Otwartymi” (skrót ten sam) – w ogóle nie powinny powstać. Więc dobrze, że koalicja POPiS je zlikwidowała. Rzadko chwalę tę koalicję, ale za likwidację OFE im się należy. Koalicjanci się oczywiście kłócą, kto swoją połowę zlikwidował lepiej. Jako symetrysta napiszę, że jedni i drudzy zrobili to źle. Ale dobrze, że w ogóle zrobili. PO źle zrobiła, że połowę OFE zostawiła. PiS źle robi, że w ich miejsce tworzy PPK. Podstawową wadą OFE było to, że wpisywały się one w system emerytalny opierający się na opodatkowaniu pracy. To OFE były głównym obrońcą ZUS. Bez ZUS-u i jego systemu komputerowego w ogóle nie mogłyby powstać. A ZUS musiał stworzyć ten system komputerowy na potrzeby „reformy” – czyli dla OFE. Niestety PPK będą prostą kontynuacją tego systemu. To podobieństwo jest ważniejsze niż drobne – przy nim – różnice.
Fundusz Ubezpieczeń Emerytalnych (FUS) na który wpływają nasze składki na ubezpieczenie emerytalne, z którego Zakład Ubezpieczeń Społecznych (ZUS) wypłaca emerytury tym, którzy obecnie je pobierają jest trwale deficytowy. Dlatego rząd musi go dofinansowywać – robił to przez lata przy pomocy „dotacji” w wysokości, która stanowiła różnicę między tym, co ZUS musiał wypłacać na emerytury, a tym co wpłynęło na FUS minus to, co ZUS musiał wydać na swoje własne utrzymanie. A koszty tego utrzymania rosły – bo ZUS musiał zwiększyć zatrudnienie i zbudować Kompleksowy System Informatyczny ((KSI) – na co wydał miliardy – i go utrzymywać – na co wydawał co roku kilkaset milionów.
Po reformie, ZUS część składki zaczął przekazywać do OFE. Aż do 2011 roku było to 7,3% wynagrodzenia każdego pracownika (słownie: sie-dem i trzy dziesiąte!). Zwiększało to deficyt FUS. Więc rząd musiał większą dotację przekazać ZUS na wypłatę emerytur. W 1998 roku dotacja budżetowa do FUS wyniosła 8,8 mld zł, w 1999 roku, a więc w pierwszym roku reformy zwiększyła się do 9,4 mld zł. W następnym wzrosła do 15,4 mld zł, a w 2001 roku osiągnęła poziom 21,2 mld zł. To właśnie była ta słynna „Dziura Bauca”, która pogrążyła rząd Jerzego Buzka, a o której szybko przestano mówić, choć w 2002 roku dotacja budżetowa do FUS wzrosła do 27 mld zł, a w 2003 roku do 28,3 mld zł. Od 1999 roku dotacje do FUS zwiększały się średnio po 16,0% rocznie.
W 2004 roku, Ministerstwo Finansów przedstawiając informację o dotacjach do FUS, zastosowało kreatywną księgowość, wprowadzając zmianę zasad finansowania ubytku dochodów z tytułu przekazania części składek emerytalnych do OFE. Do 2003 roku środki te stanowiły część dotacji budżetu państwa, natomiast od 2004 roku księgowane są jako „rozchody” budżetu i nie zaliczają się już do dotacji budżetowych. Ta część faktycznej dotacji, która pokrywała to, co ZUS oddaje OFE nazwana została „refundacją” – ładniej brzmiało.
Dopiero w 2011 roku składka do OFE spadła z astronomicznej wysokości 7,3% do 2,3%. Niektórzy nazwali to „pierwszym rozbiorem OFE” – żeby się ludziom źle kojarzyło.
Co robiły OFE z tym, co otrzymały z ZUS? W pierwszej kolejności wydawały same na siebie. O ile jednak ZUS na to wszystko, co robił, pobierał „odpis” w wysokości 2% wpływów do FUS, OFE pobierały „prowizję”. Początkowo 10% (słownie: dzie-sięć!) W latach 2004-2010 wynosiła ona 7%, a potem co roku spadała. W 2014 roku  wynosiła marne 3,5%. Teraz to już tylko 1,75%. Eldorado się skończyło więc obrońców OFE ubyło.  Za co OFE pobierały tę ”prowizję” nazywaną opłatą za zarządzanie? Tak naprawdę była to opłata za istnienie. Była bowiem niezależna od wyników przez OFE osiąganych! Do 2012 roku  uzbierało się tego 17 mld zł!!! (słownie: sie-dem-na-ście). Potem przestałem już liczyć, ale do 20 mld dobiliśmy z pewnością  –  nawet pomimo zmniejszenia składki przekazywanej do  OFE (czyli podstawy naliczania) i zmniejszenia procentowej wysokości prowizji.
Za resztę, po przejęciu swojego wynagrodzenia, OFE kupowały obligacje Skarbu Państwa. Fakt, że zgodnie z ustawą o organizacji i funkcjonowaniu funduszy emerytalnych musiały. Ale kupowały tych obligacji za prawie 70% – o wiele więcej niż musiały. Bo tak było im po prostu łatwiej i taniej. Poczta Polska sprzedawała obligacje Skarbu Państwa bez prowizji  – i każdy sam mógł je sobie kupić.
A co robił Skarb Państwa z pieniędzmi, które w zamian za obligacje dostał od OFE, które dostały je z ZUS, które ZUS zabrał „ubezpieczonym”?  Przekazywał je do ZUS! Jako „dotację” albo „refundację”. A co robił z nimi ZUS? Wypłacał z nich emerytury. Mówienie, że pieniądze przekazane do OFE „pracowały” na przyszłe emerytury przyszłych emerytów, którzy „oszczędzali w OFE” to było raczej bredzenie. Nie mogły „pracować” bo ich po prostu w ogóle nie było. Trafiły natychmiast do emerytów, którzy je natychmiast wydawali na konsumpcję! W przyszłości Skarb Państwa miał te obligacje wykupić. Wraz z odsetkami – rzec jasna. Za co by je wykupił? Za podatki pobrane od tych, którzy wcześniej zapłacili składki.
Więc: do OFE trafiło moje 100 zł. OFE wzięło sobie z tego 10 zł (potem 7, 5, 3 – średnio – niech będzie, że średnio 5, choć to zaniżona kwota). Niech będzie, że z tych 95 zł OFE wydały na obligacje 60 zł (choć to z kolei zaniżona kwota). Skarb Państwa miał je wykupić po pięciu latach za jakieś 73 zł. Te 73 zł musiał wziąć ode mnie. Zapłaciłem więc razem 173 zł żeby dostać emeryturę liczoną od kwoty 60 zł!
Tym, którzy do dziś złorzeczą, że Tusk „ukradł im ich pieniądze” śpieszę donieść, że rząd Tuska przeksięgował jedynie część „obligacyjną” – czyli de facto zobowiązanie naszych dzieci, że będą płacić składki i podatki by Skarb Państwa wykupił z OFE obligacje, które sprzedał OFE, za pieniądze, które zabrał nam ZUS i przekazał do OFE!
A  co się działo z resztą – 35 zł z tych 95 zł z tych 100 zł które trafiły ode mnie do OFE? OFE inwestowały je na GPW. Jak kupowały akcje to cena akcji rosła. Rosła bardziej niż gdyby OFE ich nie kupowały.  Więc te akcje stawały się przewartościowane. Komu to służyło? OFE i ich akcjonariuszom, którzy działali na „rynku finansowym” – w tym na giełdzie. A w jakie akcje OFE inwestowały? W akcje dużych spółek.
Konsekwencją reformy emerytalnej był więc transfer kapitału z małych firm (cierpiących na jego niedostatek), które płaciły składki za swoich pracowników do wielkich, notowanych na GPW, których akcje nabywały OFE za środki pochodzące z opodatkowania pracy. „Inwestycje” OFE miały więc swoją cenę. Płacą ją małe i średnie przedsiębiorstwa, które były podstawą polskiego cudu gospodarczego pierwszej połowy lat dziewięćdziesiątych XX wieku, które stworzyły od podstaw kilka milionów nowych miejsc pracy.
Ale OFE miały kiedyś wypłacać emerytury. To musiałby zacząć te akcje sprzedawać. Co by się wówczas stało z ich cenami? Łatwo się domyślać, ale nie było nam dane tego sprawdzić empirycznie.
Co w tym wszystkim najzabawniejsze? OFE zajmowały się jedynie „inwestowanie” środków otrzymanych z ZUS, za bardzo wysoką prowizję. Zakłady Emerytalne, które miały wypłacać emerytury z OFE nigdy nie powstały!!!  Owszem pojawił się plan ich utworzenia, ale  się okazało, że za wypłatę emerytur chciały one…. kolejne 10%. I na to politycy już się drugi raz – na szczęście dla przyszłych emerytów – nie dali nabrać.
OFE powstały, bo politycy nie mieli śmiałości powiedzieć wyborcom prawdy – że nie ma pieniędzy na utrzymanie wcześniej  istniejącego systemu, że musimy pracować dłużej, a stopa zastąpienia – czyli stosunek pierwszej emerytury do ostatniej pensji – będzie coraz niższa. Akcja Wyborcza „Solidarność” (AWS), która rządziła w 1998 roku, zamiast podwyższyć wiek emerytalny dla ówczesnych 40-latków, którym było absolutnie obojętne, czy będą musieli pracować jeszcze 25 czy 27 lat, wymyśliła OFE. Po latach PO  – po części następczyni Unii Wolności (UW), która była koalicjantem AWS, podwyższyła wiek emerytalny 60-latkom. A dla nich było istotne czy będą pracowali jeszcze 5 czy 7 lat. Ta reforma to była głupota polityczna. Trzeba to było rozłożyć w czasie.
Wysokość naszych emerytur nie będzie zależała od tego, jakie płacimy składki i podatki, tylko od tego jakie będą płaciły nasze dzieci i wnuki, gdy my już będziemy na emeryturze, jak dużo będzie wówczas emerytów i jak długo będą żyli na tej emeryturze. Nie będą oni potrzebowali żadnych akcji, obligacji czy świadectw udziałowych, tylko przysłowiowe „owsiankę, aspirynę, pielęgniarkę”. O ich dostępności i cenie zadecydują kolejne pokolenia. Pierwszy warunek jest taki, że one w ogóle muszą być. Przy obecnej stopie dzietności – 1,4  – następne pokolenia będą coraz mniej liczne. Aż w końcu nikogo nie będzie. To w sumie dobra wiadomość dla ekologów. Ludzie przestaną w końcu niszczyć planetę.  I jak Bałtyk będzie już pod Warszawą, to się wszyscy pomieszczą na Podkarpaciu.
Szybciej odczujemy konsekwencje tchórzostwa polityków SLD, PSL, AWS, KLD (kolejne wyjaśnienie dla młodzieży – Kongres Liberalno-Demokratyczny) i UW, którzy kilkanaście lat temu przestraszyli się pielęgniarek i nie pozwolili na napływ Ukrainek i Białorusinek do tego zawodu. Bo miały odbierać miejsca pracy polskim pielęgniarkom. Niedługo zaczną one przechodzić na emeryturę, a młodych w zawodzie nie ma. Z lekarzami też problem, więc istnieje szansa, że na emeryturze będziemy żyli krócej, więc miesięczne wypłaty będą mogły być „wyższe”.
Alternatywa dla obecnego, skomplikowanego i drogiego w utrzymaniu systemu może być prosta. To emerytura obywatelska równa dla wszystkich – bo na emeryturze jesteśmy równi. Już niczego społeczeństwu nie dajemy, tylko bierzemy z tego co wypracowują inni. I z tego co sami kiedyś wypracowaliśmy i sobie prywatnie odłożyliśmy. Nie oczekujmy jednak od państwa, żeby dbało o to, by ta część emerytury, którą nam ono wypłaca była zróżnicowana i byśmy mieli na emeryturze więcej od sąsiada, tylko dlatego, że zarabialiśmy od niego więcej i płaciliśmy wyższe składki. Składkę na NFZ też płaciliśmy wyższą, a nie przyjmą nas przez to szybciej do państwowego lekarza. Możemy pójść do prywatnego – jak mamy za co. Nie ma powodu by z emeryturami było inaczej.
I dla tego rozwiązania alternatywy nie ma. Jest tylko alternatywa, jak do niego dojdziemy. Możemy to powiedzieć ludziom dziś zaczynającym pracę i za  45-50 lat problem będzie rozwiązany. Albo możemy utrzymywać istniejący system.  Przez 45 lat ZUS będzie wydawał dziesiątki miliardów na obliczanie ich przyszłej emerytury i za 45 lat obliczy, że ta emerytura będzie niższa od minimalnej, więc i tak dostaniemy minimalną. Ale pieniądze wydane na emisję CO2 przy okazji tego liczenia ktoś zarobi. I o to chodzi.

W blogu Spostrzeżenia 2019/11/09 - 20:49 Źródło

Artur prowadzi firmę. Uważa, że jeżeli uda mu się zbudować system wynagradzania polegający na tym, że najlepsi, kreatywni, najbardziej wydajni, będą najlepiej opłacani, a pozostali będą mieć zawsze szansę dołączyć do tego grona, to wszyscy mogą na tym tylko zyskać. Artur; dostawcy; pracownicy, no i klienci. Firma poprawi swoją efektywność.
Rozmawiał o tym z doświadczonym konsultantem. Usłyszał, opinię, że zawsze warto przyglądać się obecnemu systemowi wynagradzania i zobaczyć jak jest skonstruowany. A w razie potrzeby przebudować go, ale nie tak by on tę efektywność poprawiał, ale tak by za nią nadążał.

Opłacała się Arturowi uwzględnić tę opinię, czy może lepiej od razu zamawiać kolejną, u kogoś innego?

W blogu Spostrzeżenia 2019/11/09 - 20:49 Źródło

Business Dialog Bulletin - widok książki

Premium Drupal Themes by Adaptivethemes