sobota, 30 czerwca 2012

Bank zintegrowany z Facebookiem

Alior Sync, zapowiadany jako mobilny bank nowej generacji, wprowadził kilka nowinek. Jego ofertę trudno nazwać rewolucją na miarę przejścia z bankowości tradycyjnej do internetowej.

Henryk Baniowski, dyrektor Obszaru IT Alior Banku
Wiele banków oferuje kontakt z wirtualnym doradcą, to jednak tylko u nas można załatwić poprzez takiego doradcę wszystkie bankowe sprawy przez 24 godziny na dobę."Jest coraz większa grupa osób, której tradycyjna bankowość nie odpowiada, nie odpowiada jej też tradycyjna bankowość internetowa. Właśnie dla tych ludzi stworzyliśmy Alior Sync, bank nieinternetowy" - mówił na konferencji w przeddzień otwarcia nowego oddziału Alior Banku (formalnie Sync jest oddziałem) jego prezes Wojciech Sobieraj.

Alior Sync na rynku pojawił się 14 czerwca i reklamuje się hasłem: "Prawdziwy ninja nie chodzi do banku". W ciągu czterech lat chce zdobyć 1 mln klientów. Zdaniem ekspertów hasło Alior Sync jest mocno przesadzone. Aby założyć w nowym banku konto, trzeba konto bankowe już mieć. Z niego powinien przyjść do Alior Sync jednozłotowy przelew weryfikacyjny. Podobnie konta można od dawna zakładać w wielu polskich bankach.

Zdjęcie zamiast numeru konta

"Alior Sync nie jest rewolucją, a jedynie zmianą interfesju do kontaktu z klientem" - ocenia Paweł Majtkowski, analityk firmy doradztwa finansowego Expander. "Aplikacje mobilne Synca są takie same, jakie ma już od dawna większość banków i wcale się nimi nie chwali" - dodaje. "Oferta Synca jest inna niż dotychczasowa oferta banków, ale czy nowy bank okaże się rewolucyjny, pokaże czas" - twierdzi Paweł Lipiec z agencji interaktywnej FaceAdiccted.

Henryk Baniowski, dyrektor Obszaru IT w Alior Banku, mówi, że w systemie żadnych nowych rozwiązań technologicznych nie ma, ale z punktu widzenia procesów bankowych Sync jest nowością na rynku. "Choć można mówić, że wiele banków oferuje kontakt z wirtualnym doradcą, to jednak tylko u nas można załatwić poprzez takiego doradcę wszystkie bankowe sprawy przez 24 godziny na dobę" - podkreśla Henryk Baniowski.

Zdaniem ekspertów najciekawsza funkcjonalność Alior Sync to połączenie konta bankowego z Facebookiem. Użytkownicy mogą wysyłać przelewy do swoich znajomych bez znajomości ich numeru konta. Osoba, która otrzyma informację o wykonanym do niej przelewie i zechce go przyjąć, musi podać swój numer konta w specjalnej aplikacji Alior Sync na Facebooku (dostaje do niej link w zakładce "powiadomienia"). Numer konta zostaje automatycznie przypisany do zdjęcia znajomego i zostaje w pamięci aplikacji, by drugi przelew poszedł automatycznie po zaznaczeniu w aplikacji samej fotografii znajomego.

Interesująca jest możliwość robienia szybkich przelewów na podstawie zdjęcia faktury wykonanego aparatem w telefonie. Podobny pomysł pod nazwą "FotoKasa" oraz możliwość przelewania pieniędzy za pomocą telefonu i aparatu fotograficznego udostępnił Citi Handlowy. Bank chwali się wprowadzeniem możliwości wyboru logowania do swojego konta. Zwykle banki oferują jeden sposób logowania - poprzez zwykłe hasło albo poprzez tzw. hasło maskowane. W Alior Sync dodatkowo można logować się w sposób wizualny, za pomocą łączenia kropek na szachownicy (hasłem jest wybrany układ kropek). Z tzw. bajerów mamy też możliwość potrząśnięcia telefonem. Wówczas pokaże się stan naszych oszczędności. Podobne rozwiązanie pojawiło się w ofercie banku Citi.

Zdaniem ekspertów, tylko kilka funkcjonalności w ofercie Alior Sync jest unikalnych, ale i tak nie muszą interesować klientów. "Robienie przelewów przez konto internetowe za pomocą aplikacji mobilnych jest szalenie łatwe, a przelewy na Facebooku, nawet jeśli jako specjaliści wiemy, że są bezpieczne, będą u wielu budzić strach" - ocenia Paweł Majtkowski z Expandera.

Zarządzanie finansami w komplecie

Najwięcej emocji w systemie aplikacji Sync budzi oprogramowanie do zarządzania własnymi finansami. Zlicza ono oszczędności i wydatki, a następnie - grupując przelewy w kategorie - pokazuje na wykresach, jak zarządzamy naszym domowym budżetem. Oprogramowanie zostało stworzone przez agencję Artegence kilka lat temu. Nie zdobyło jednak dużej popularności m.in. przez brak zaufania klientów do aplikacji, w której dochodziło do anonimizowania danych bankowych w oprogramowaniu agencji, a nie w środowisku należącym do instytucji finansowej. "Ten system został kupiony od Artegence i w całości postawiony na instancjach banku" - zapewnia Henryk Baniowski z Alior Banku.

Podobną aplikację do zarządzania finansami uruchomił niedawno bank Millennium. Narzędzia tego typu funkcjonują od lat w serwisach benefi.pl, mojegrosze.pl czy Ifin24.pl Comarchu. W nich istnieje możliwość zsynchronizowania danych o wszystkich przelewach z dowolnych kont bankowych. Alior oferuje pierwszą aplikacją, która daje możliwość synchronizacji, zaimplementowaną do systemu bankowego.
Twórcy Aliora nad ofertą Synca pracowali prawie rok z blisko 40 partnerami. Za hardware odpowiadał Hewlett Packard, za software firma IND, za layout agencja interaktywna Artegence, a za flagową funkcjonalność nowego banku, tzw. wirtualny oddział, firma Alfavox.

W projekt zainwestowano 50 mln zł, z czego około 60% przeznaczono na przygotowanie części informatycznej. Pod koniec roku z podobnym projektem, uwzględniającym integrację banku z Facebookiem, ma wystartować mBank.

- Połączenie konta z Facebookiem, identyfikacja numerów rachunków do przelewu przez aplikację na Facebooku
- Zintegrowane oprogramowanie do zarządzania finansami
- Wirtualny doradca załatwia wszystkie sprawy
- Przelew na podstawie zdjęcia faktury
- Logowanie wizualne poprzez łączenie kropek

Microsoft daje ponad 1 mld USD za "Facebooka dla firm"

Z nieoficjalnych informacji wynika, że Microsoft zamierza kupić skierowany do użytkowników biznesowych serwis społecznościowy Yammer.

Uruchomiony w 2008 r. serwis pierwotnie stanowił biznesowy odpowiednik Twittera. W odróżnieniu od niego Yammer pozwala precyzyjnie adresować komunikaty do konkretnych osób i grup odbiorców. Obecnie serwis bywa wykorzystywany także do komunikacji na poziomie całych firm.

Zakup serwisu Yammer wpisywałby się w strategię zakładającą rozwój oferty pod kątem modelu cloud. Ważna jest baza biznesowych użytkowników serwisu Yammer; korzysta z niego większość firm z Fortune 500.

Jak Polacy korzystają z elektroniki

Wśród mężczyzn jest znacznie więcej "gadżeciarzy" niż wśród kobiet. Nowe kategorie urządzeń na początku są przyjmowane znacznie szybciej przez mężczyzn niż kobiety.

Prezentowane wyniki pochodzą z badania na próbie 14 255 internautów w wieku 18-64 lat, wykonanego w maju br. dla magazynu Computerworld. Respondentów pytano o posiadane urządzenia elektroniczne oraz zamiar ich zakupu w ciągu sześciu miesięcy. Dodatkowe pytania dotyczyły rodzaju dostępu do internetu, z którego korzystają oraz płatnych audycji telewizyjnych (Video on Demand, Pay per View).

Jeśli chodzi o posiadanie urządzeń elektroniki konsumenckiej, warto rozróżnić te, które są na ogół używane przez jedną osobę, i takie, z których zwykle korzysta więcej osób w gospodarstwie domowym. W konsekwencji tego rozróżnienia respondenci byli pytani o posiadanie i zamiar zakupu w ciągu sześciu miesięcy przez nich samych: notebooków, netbooków, tabletów (w podziale na iPada i pozostałe marki), smartfonów i czytników e-booków. Kolejne pytania dotyczyły posiadania i zamiaru zakupu przez gospodarstwo domowe jako całość: drukarek, kserokopiarek, faksów, urządzeń wielofunkcyjnych, komputerów stacjonarnych, dysków przenośnych, routerów Wi-Fi, telewizorów plazmowych, LCD bądź LED, Smart TV, telewizorów 3D i konsol do gier.

Akceptacja innowacji w elektronice

Duże różnice w zakresie posiadania tego rodzaju sprzętu występują między mężczyznami a kobietami. Wśród mężczyzn jest znacznie więcej "gadżeciarzy". Mężczyźni częściej mają smartfony (29% wobec 18% wśród kobiet), iPady (6% do 2%), inne tablety (7% do 2%), czytniki e-booków (4% do 1%). Mniejsza, choć wciąż zauważalna dysproporcja występuje w przypadku netbooków (15% do 10%). Jedynym rodzajem urządzenia, które nie podlega tej zasadzie, jest notebook - częściej jest on w posiadaniu kobiet (70%) niż mężczyzn (62%).

Widoczne są też socjodemograficzne wzory akceptacji innowacji w elektronice konsumenckiej. Nowe kategorie urządzeń na początku są przyjmowane znacznie szybciej przez mężczyzn niż kobiety. Dopiero kiedy dany produkt zwiększa swoją popularność, odsetek kobiet wśród jego użytkowników wzrasta. Inną tego rodzaju cechą jest dochód. Choć większy dochód sprzyja posiadaniu większości kategorii sprzętu elektronicznego, to różnica jest znacznie bardziej widoczna w przypadku produktów ekskluzywnych niż w przypadku produktów popularnych. Przykładowo, czytniki e-booków są w posiadaniu 9% osób z gospodarstw domowych o średnim miesięcznym dochodzie powyżej 7000 zł i tylko 1% osób z gospodarstw o dochodzie poniżej 2000 zł. Bardzo zróżnicowany jest też zakres występowania smartfonów (41% do 17%), iPadów (10% do 2%) i innych tabletów (13% do 2%). Z kolei notebooki, choć są bardziej popularne wśród osób z gospodarstw o dochodzie powyżej 7000 zł (76%), to i wśród osób z gospodarstw o dochodzie poniżej 2000 zł występują dość powszechnie (60%).

Odmienny charakter ma inna cecha - wykształcenie. Jest ona silnie związana z zakresem posiadania notebooków. Komputery przenośne tego rodzaju posiada tylko 49% internautów z wykształceniem poniżej średniego, 67% z wykształceniem średnim i 76% z wykształceniem wyższym. Komputer jest przez osoby lepiej wykształcone częściej wykorzystywany w celach zawodowych, rozrywkowych i komunikacyjnych. Z drugiej strony, wykształcenie znacznie słabiej wiąże się z zakresem posiadania produktów bardziej ekskluzywnych. Dane sugerują, że nie jest ono równie istotną determinantą szybkości akceptacji innowacji w zakresie elektroniki konsumenckiej jak płeć i dochód. Podobnie, mniej istotny jest wiek. O ile można zakładać, że w całej populacji Polaków wiek ma znaczenie, o tyle po zastosowaniu filtra korzystania z sieci wiek staje się cechą znacznie mniej istotną.

Różnice w potencjale zakupowym

Różnice w zakresie planowania zakupów różnych produktów są mniejsze niż różnice dotyczące ich posiadania. Najwięcej osób deklaruje chęć zakupu w ciągu sześciu miesięcy notebooka (19%), w dalszej kolejności smartfona (12%). Pozostałe kategorie produktów planuje nabyć w ciągu pół roku 5-8% internautów. Tego rodzaju deklaracje składają częściej mężczyźni i osoby z gospodarstw domowych o wysokich dochodach, choć różnice są już mniejsze niż w przypadku faktycznego posiadania.

Inną różnicą w zakresie urządzeń o różnym stopniu penetracji jest zależność między posiadaniem danego rodzaju sprzętu a chęcią zakupu nowego egzemplarza, przeznaczonego dla bliskiej osoby, czy nowego modelu, który zastąpi model obecnie używany. W przypadku technologii młodszych, bardziej ekskluzywnych, nowi nabywcy rekrutują się głównie spośród osób, które teraz używają danego rodzaju sprzętu. Nigdzie nie widać tego tak dobrze, jak w przypadku czytników e-booków. Chęć zakupu czytnika w ciągu sześciu miesięcy zgłasza aż 23% internautów, którzy czytnik już posiadają, i zaledwie 4% tych, którzy go nie mają. Znaczna różnica jest też w przypadku iPadów (20% do 5%), mniejsza zaś w przypadku innych tabletów (14% do 7%). Na drugim biegunie są notebooki. Zamiar ich zakupu zgłasza 14% osób, które je posiadają i aż 26% osób, które ich nie mają.

Ze względu na to, że gospodarstwo domowe tworzą osoby o różnych cechach socjodemograficznych, specyfika osób z gospodarstw mających poszczególne urządzenia jest słabiej zarysowana niż w przypadku grupy indywidualnych użytkowników produktów. Jednak także tutaj można wyodrębnić pewne prawidłowości. Gospodarstwa domowe, w których występuje większa liczba mężczyzn, częściej posiadają routery Wi-Fi (na ich występowanie w gospodarstwie wskazuje 47% mężczyzn i 37% kobiet), konsole do gier (19% do 14%), dyski przenośne (26% do 20%), faksy (9% do 5%), telewizory 3D (9% do 5%). Żadna kategoria sprzętu nie jest wskazywana przez kobiety wyraźnie częściej niż przez mężczyzn. W przypadku konsol najpopularniejsza jest marka Sony Playstation (62%) i Microsoft Xbox (28%). Pozostałe konsole stanowią razem 10% całości.

Jeśli chodzi o zamiar zakupu urządzeń z tej grupy w ciągu najbliższych sześciu miesięcy, najwięcej osób deklaruje zamiar zakupu telewizora plazmowego, LCD lub LED (13%). O telewizorze z funkcją 3D wspomina 9% internautów, a o konsoli do gier - 8%. W przypadku pozostałych kategorii produktowych odsetki te wynoszą od 3% do 6%. Główną socjodemograficzną determinantą zamiaru zakupu jest płeć. Mężczyźni deklarują taki zamiar znacznie częściej niż kobiety w przypadku wszystkich produktów, z wyjątkiem telewizorów - tam gdzie odsetki są niemal równe. Telewizory plazmowe, LCD lub LED są też jedną kategorią urządzeń, które zamierzają kupować głównie osoby jeszcze ich niemające (19% wobec tylko 5% wśród posiadaczy).

Kontakt z siecią i nowe e-usługi

W badaniu pytaliśmy też o dostęp do internetu. Kobiety częściej niż mężczyźni jako jedno z głównych miejsc korzystania z internetu wskazują miejsce pracy (23% do 15%), rzadziej natomiast dostęp przez telefon komórkowy (14% do 24%) oraz w takich miejscach, jak kawiarnie internetowe (5% do 9%). Korzystanie ze stałych łączy w domu zdecydowanie preferują starsi internauci (77% wśród osób w wieku 50-64 lat); dla młodszych jest to też nadal główna forma dostępu (63% w grupie osób w wieku 18-29 lat), ale częściej łączą ją z dostępem przez telefon komórkowy (24% w grupie 18-29 lat wobec 16% w grupie 50-64 lat). Dostęp mobilny przez komputer cieszy się zbliżoną popularnością we wszystkich grupach wiekowych.

Wraz ze wzrostem dochodu wzrasta różnorodność form dostępu, z jakich korzystają użytkownicy. Osoby z gospodarstw o wysokich dochodach znacznie częściej wskazują różne formy dostępu, inne niż stałe łącze kablowe. W przypadku tego ostatniego zależność od dochodu jest dużo słabsza. Wraz ze wzrostem wykształcenia wzrasta częstość wskazywania dostępu za pośrednictwem stałego łącza w domu (od 59% w grupie internautów z wykształceniem poniżej średniego do 71% w grupie z wykształceniem wyższym), a przede wszystkim - w pracy (od 7% do 33%).

Jedynie 13% internautów korzysta z treści telewizyjnych dostępnych na żądanie (Video on Demand, Pay per View). Mężczyźni korzystają z nich dużo częściej niż kobiety (17% do 8%). Zakres korzystania znacznie zwiększa się wraz ze wzrostem dochodu (9% w grupie osób z gospodarstw o dochodzie poniżej 2000 zł, 25% wśród członków gospodarstw o dochodzie powyżej 7000 zł), a jednocześnie maleje wraz ze wzrostem wykształcenia (18% wśród osób bez średniego wykształcenia, 11% wśród osób z wykształceniem średnim i wyższym).

O metodologii badania

Analiza została przygotowana na podstawie ankiet internetowych wypełnionych między 9 a 28 maja 2012 r. przez 14 255 osób w wieku 18-64 lat. Zbiór danych z ankiet został doważony do szacowanej struktury populacji internautów w wieku 18-64 lat ze względu na płeć, wiek, wykształcenie, wielkość gospodarstwa domowego, wielkość miejscowości zamieszkania i częstość korzystania z internetu. Internautów definiujemy tutaj jako osoby korzystające z internetu średnio co najmniej raz w miesiącu.

Rafał Bera jest project managerem w Dziale Analiz, a Łukasz Szymański specjalistą ds. wsparcia GIS i analitykiem w Acxiom Polska. Firma jest częścią notowanej na giełdzie NASDAQ korporacji Acxiom, jednego z liderów w dziedzinie usług z zakresu marketingu bezpośredniego i nowoczesnych technologii, które pozwalają zarządzać relacjami z klientami, personalizować doświadczenia klienckie i podnosić ich wartość.

Pracować zdalnie nie znaczy wydajnie

Zdalna praca daje liczne korzyści. Zarządzanie zespołami rozproszonymi przynosi jednak wiele problemów. Jak sobie z nimi radzić?

Praca zdalna jest w wielu wypadkach istotnym udogodnieniem zarówno dla pracodawcy, jak i pracownika. Pracodawca nie musi zapewniać dodatkowej powierzchni biurowej oraz ponosić związanych z tym kosztów środowiska pracy. Co ważniejsze, ma również znacznie większe możliwości wyboru specjalistów. Pracownik zaś może pracować z domu, unikając stania w porannych korkach i nie tracąc czasu na dojazd do firmy.

Praca zdalna nie ogranicza się do współpracy z pojedynczymi specjalistami. Na coraz większą skalę wykorzystywane są większe grupy specjalistów, czyli tzw. zespoły rozproszone lub wirtualne. Korzyści z takiej współpracy są dobrze znane. Ma to też swoje złe strony. Problem polega na tym, że nie są one widoczne na pierwszy rzut oka. Często również bywają bagatelizowane przez pracodawców skupionych na krótkoterminowych korzyściach w postaci oszczędności wydatków przy możliwości pozyskania dobrze wykwalifikowanych pracowników do zespołu projektowego.

Zespoły rozproszone narażone są na problemy, które nie występują lub występują w mniejszej intensywności w tradycyjnej strukturze. Przy planowaniu rekrutacji warto wziąć pod uwagę kilka czynników, które pomogą sprawniej zarządzać grupą pracowników niemających z sobą bezpośredniego kontaktu.

Słaba komunikacja

Już w przypadku zatrudnienia jednego lub dwóch pracowników w trybie zdalnym pojawia się problem skutecznej komunikacji pomiędzy wszystkimi członkami zespołu. Współczesna technika oferuje całą masę zdalnych form wymiany informacji, jednak każda z nich ma swoje istotne ograniczenia. E-maila można nie przeczytać albo nie zrozumieć jego treści, telefonu nie odebrać albo odebrać w nieodpowiednim momencie, komunikatora nie włączyć. Kontakt bezpośredni, którego tu brakuje, w pewnych okolicznościach jest nie do zastąpienia. Przekonał się o tym każdy, kto choć raz próbował skompletować zdalny zespół, a następnie zarządzać nim bez żadnego spotkania.

Sytuacja komplikuje się w większym środowisku. Zarządzanie dużym zdalnym zespołem niesie dodatkowe czynniki ryzyka, takie jak brak wystarczającej kontroli nad pracownikami, konieczność częstego powtarzania komunikatów oraz potwierdzania zrozumienia przekazanych treści, trudności w znalezieniu czasu na wirtualne spotkania. Pojawia się też kwestia szczegółowego określenia wymagań i odpowiedzialności. Najlepiej by było, gdyby każdy członek wirtualnego zespołu projektowego znał świetnie swoją rolę, a zarządzający zajmował się jedynie kontrolą wykonania przydzielonych zadań. Nie da się jednak tego osiągnąć w przypadku unikalnych przedsięwzięć, zawierających niepowtarzalne sekwencje czynności czy działań.

Niskie poczucie odpowiedzialności

W psychologii używa się pojęcia "dyfuzja odpowiedzialności", aby opisać stan polegający na zaniku poczucia odpowiedzialności za zadania nieprzypisane bezpośrednio do danej osoby. Zjawisko to występuje w większych grupach, gdzie podział ról nie jest jasno zdefiniowany. W praktyce jest to częsta sytuacja w dużych zespołach rozproszonych. Stanowi ona istotną barierę na drodze do ich efektywnego funkcjonowania.
Dyfuzja odpowiedzialności w wirtualnej grupie projektowej może znacząco opóźnić realizację zadań. Gdy e-mail z prośbą o wykonanie zadania dostaje grupa osób, zazwyczaj nikt niczego nie robi, licząc na kolegów. W zespołach działających na odległość efekt ten jest szczególnie mocno widoczny. Na grupowe e-maile zazwyczaj mało kto odpowiada, dlatego trzeba od razu założyć, że taki przekaz ma charakter jednokierunkowy.

Różnice kulturowe

Przy większych i bardziej rozproszonych zespołach, których członkowie znajdują się w odległych rejonach świata, należy wziąć pod uwagę czynnik stref czasowych. Gdy w Warszawie dzień pracy dopiero się rozpoczyna, w Manilii, na Filipinach, już się kończy. Podobny problem, tyle że z odwrotnym przesunięciem czasowym, istnieje choćby w odniesieniu do wschodniego wybrzeża USA.

O ile różnice w czasie są stałe i przewidywalne, o tyle różnice kulturowe między poszczególnymi członkami zespołu są już mniej uchwytne i wyraźne. Co nie znaczy, że mniej istotne. Mogą dotyczyć chociażby zróżnicowanego podejścia do czasu w różnych krajach. Wiadomo że do Hiszpana czy Francuza lepiej nie zgłaszać się z pilną prośbą po 15.00. Z Brytyjczykami lub Niemcami raczej nie będzie takiego problemu. Do tego dochodzą trudności językowe. Jeśli typowy Francuz niezbyt biegle włada angielskim, to Brytyjczyk - ponieważ jest to jego język ojczysty - nie stara się mówić wyraźnie.

Kłopoty językowe można z czasem przezwyciężyć. Trudniej pokonać inne problemy. Potwierdzanie zrozumienia zadania, gdy faktycznie nie zostało zrozumiane, dopytywanie się o każdy możliwy szczegół, luźne traktowanie priorytetów to coś więcej niż tylko stereotypy. Do tego dochodzi wyczulenie na formę komunikatów. Jednym lepiej nie zlecać zadania w formie polecenia - ze względu na ich silne poczucie dumy lepiej przekonywać, dlaczego zadanie jest takie ważne. Za to inni mają we krwi karne wykonywanie poleceń bez zbędnego tłumaczenia.

Najważniejsze dobre przygotowanie

Wirtualne zespoły to niewątpliwie przyszłość w biznesie związanym z IT. Kto chce mieć dostęp do unikalnych kwalifikacji w możliwie najkrótszym czasie albo prowadzić międzynarodowe projekty, nie uniknie tego typu struktur. Warto jednak dobrze przygotować swoje działania, by jak najlepiej skorzystać z całego dobrodziejstwa inwentarza wnoszonego przez taki model współpracy.

Artur Obmiński i Anna Tabisz są pracownikami Hewlett-Packard Polska, Anna Fałat jest absolwentką Wydziału Psychologii Uniwersytetu Warszaw-skiego.

Podczas jednego z projektów współautor niniejszego tekstu otrzymał zadanie zorganizowania serii audytów infrastruktury informatycznej u klienta. Wymagało to wskazania odpowiednich kwalifikacji oraz osób, które je posiadają, następnie skompletowania zespołu specjalistów rozproszonych po różnych miejscach, przydzielenia im konkretnych zadań, przeszkolenia, w końcu - nadzoru nad wykonaniem wymaganych prac. Jeden z audytów zakładał wyłącznie zdalną pracę koordynatora, inny wymagał z kolei podróży do audytowanej organizacji oraz bezpośredniej współpracy z zespołem projektowym. W pierwszym przypadku osiągnięcie celu wymagało znacznie więcej czasu niż w drugim, głównie przeznaczonego na komunikację. Współpraca przypominała też trochę grę w kalambury, polegającą na odgadywaniu hasła przedstawianego gestami, z tym że rolę gestów pełniły w tym przypadku e-maile i rozmowy telefoniczne, które, jak się okazało, nie są tak zrozumiałe jak przekaz bezpośredni.

Numery specjalne

Na ułożonej kiedyś przez prof. Briana Warboysa z Uniwersytetu w Manchesterze liście trzech największych katastrof, spowodowanych bezpośrednio przez źle działające systemy informatyczne, jest m.in. paraliż działania London Ambulance Service, czyli pogotowia ratunkowego w Londynie. A mówiono też wtedy, że wszystko było dobrze, dopóki nie wzięły się za to komputery. Może było czasem niezbyt optymalnie, ale za to pewnie i skutecznie.

Kiedyś, dzwoniąc do pogotowia, policji czy straży pożarnej, to dzwoniący decydował, o którą z tych służb publicznych mu chodzi i wybierał określony numer. Ponieważ jednak często nie wiadomo, która służba jest najbardziej potrzebna (a często bywa, że zjawić powinny się wszystkie), zdecydowano, że numer alarmowy ma być jeden, a dyżurujący pod nim operator najpierw odpowiednio wypyta, a potem zdecyduje, kogo wysłać.

Rozwiązanie takie tylko z pozoru jest proste, gdyż dzwoniący może na przykład nie być w stanie określić w miarę dokładnie miejsca zdarzenia. Bo jest poruszony tym, co się zdarzyło, zwyczajnie nie zna nazwy ulicy, albo jedno i drugie. I wtedy do działania musi wkroczyć infrastruktura teleinformatyczna, która potrafi ustalić przynajmniej miejsce, z którego pochodzi zgłoszenie.

Jej działanie musi być błyskawiczne, gdyż najbardziej krytycznym czynnikiem jest tu czas, więc nie można jej obciążać żadnymi innymi zadaniami. Co równie ważne - zdrowie, życie i mienie ważniejsze są niż sama opłata za połączenie i dlatego za rozmowy takie opłat się nie pobiera i zawsze się je łączy.

Wydawałoby się, że podobna zasada winna dotyczyć powiadamiania o sytuacjach kryzysowych za pomocą komunikatów SMS, wprowadzanych od pewnego czasu tu i tam w Polsce. Polega to na tym, że najpierw należy zarejestrować numer swego telefonu komórkowego, specjalnym kodem liczbowym określając miasto i dzielnicę, których powiadomienia mają dotyczyć. W efekcie właściciel każdego zarejestrowanego numeru winien otrzymać komunikat SMS, gdy w jego rejonie pojawi się groźba zagrożenia powszechnego (powódź, huragan, wyciek trującej substancji, chmura gazowa itp.).

Oczywiste jest, że - podobnie jak ze służbami ratunkowymi - krytyczny jest tu czas dotarcia z informacją i wskazaniem odpowiedniego zachowania (uciekać - dokąd? Nie wychodzić z domu, włączyć radio itd.). To również winno być ważniejsze niż opłata za usługę dla operatora. Równie oczywiste winno być, że takiego kanału informacyjnego używa się wyłącznie zgodnie z przeznaczeniem, tylko gdy wystąpi autentyczna potrzeba. Winno być, ale, niestety, nie jest, bo praktyka jest zupełnie odmienna.

Po pierwsze, o samej usłudze mało kto wie (w blisko 600-tys. Poznaniu zarejestrowano podobno tylko kilkanaście tysięcy numerów). Po drugie, operatorzy żądają opłat. A żądają, bo włodarze miast i miasteczek polubili, i to bardzo, szybki kanał komunikacji z mieszkańcami i nadużywają go, ile się da, informując tą drogą o swych dokonaniach i sukcesach, a także o lokalnych zdarzeniach czy imprezach.

To, że zabawa okazuje się kosztowna, to jedno, drugie zaś i ważniejsze, to zobojętnienie na częste komunikaty z tego źródła, do czego taka praktyka musi prowadzić. I gdy nadejdzie potem kiedyś ta właściwa, ważna wiadomość, zostanie ona zignorowana. Nie wspominając już o przypadku, kiedy konieczna będzie szybka informacja o zagrożeniu, a odpowiedzialny za to system będzie akurat zajęty rozsyłaniem SMS-ów z zaproszeniami na imprezę w domu kultury czy strażackiej remizie.

Pozytywnym przykładem mogą tu być Koleje Dolnośląskie, które po rejestracji telefonu z kodem konkretnej linii SMS-ami informują o opóźnieniach, trudnościach i zmianach. Korzystam z tej usługi już kilka lat i nie zdarzyło się, abym dostał komunikat mało ważny (nie przeszkadza mi, że SMS potrafi przyjść przed piątą nad ranem i gdy jestem gdzieś daleko).

Byłoby dobrze, gdyby inni wzięli przykład z tego serwisu. A w przypadku dłuższego braku zagrożeń ograniczali się do np. jednego komunikatu testowego na kwartał. By przypomnieć, że system działa i że trzeba być czujnym. No i wtedy bez opłat...

Nowa hurtownia danych w Generali Polska

Uruchomienie nowej hurtowni danych miało na celu usprawnienie procesów raportowania w ramach całej Grupy Ubezpieczeniowej Generali Polska oraz wyeliminowanie problemów z jakością i spójnością informacji zarządczej.

Hurtownia danych finansowych stała się jednym wiarygodnym źródłem informacji dla wszystkich działów finansowych. "Po uruchomieniu hurtowni danych finansowych zmniejszył się czas przeznaczony na przygotowanie informacji i raportów, a ich jakość znacznie się poprawiła. Poprzez dostarczenie lepszej, szybszej i bardziej wiarygodnej informacji spodziewamy się korzyści w postaci poprawy zarządzania przedsiębiorstwem" - powiedziała Magdalena Nawłoka, członek zarządu i dyrektor ds. finansowych spółek grupy Generali w Polsce. Nowa hurtownia ma być wykorzystywana w procesach tworzenia analiz szkodowych, raportowania na rzecz Ubezpieczeniowego Funduszu Gwarancyjnego i budowanej centralnej bazy klienta korporacyjnego. Całość prac trwała dwa lata. Projekt zrealizowali specjaliści Infovide-Matrix.

Prezesi przyjmują nowy model zarządzania

71% prezesów ankietowanych w ramach IBM CEO Study 2012 uważa, że technologia jest elementem, który w ciągu 3-5 lat w największym stopniu wpłynie na ich organizacje.

prezesów firm o najszybciej rosnących przychodach i o największych zyskach (outperformers) uważa, że dla innowacyjności ich przedsiębiorstw najważniejsze jest skuteczne połączenie narzędzi biznesowych i technologii.Szefowie przyjmują nowy model zarządzania firmą - wynika z badania CEO Study 2012 przygotowanego przez IBM Institute for Business Value. Przeprowadzono je wśród 1700 prezesów z 64 krajów. "Otwartość, wykorzystanie informacji płynących z otoczenia i wyzwalanie samodzielności wśród pracowników zastępują wydawanie poleceń i kontrolę, które tradycyjnie charakteryzowały zarządzanie organizacjami" - twierdzą autorzy raportu.

Lepsze wyniki, większa otwartość

Badanie pokazało silną korelację między nowym stylem zarządzania a wynikami firmy. Prezesi przedsiębiorstw osiągających najlepsze rezultaty o 1/3 częściej niż ich konkurenci uznają otwartość za element, który znacząco wpływa na organizacje. Otwartość jest rozumiana jako wykorzystanie mediów społecznościowych w pracy. Dzięki temu innowacyjne podejście pracowników i partnerów biznesowych oraz informacje zwrotne z otoczenia przyczyniają się do zwiększania wzrostu firmy i jej rentowności.

Nowe środowisko pracy wymaga specyficznego zestawu predyspozycji. Prezesi uważają, że jeśli pracownicy chcą osiągnąć sukces, powinni: posiadać wysokie zdolności interpersonalne i umiejętność współpracy z innymi ludźmi (75%), mieć zdolności komunikacyjne (67%), cechować się kreatywnością (61%) i elastycznością (61%). Od tego zależy powodzenie firmy, więc warto selekcjonować osoby, które sprawdzają się w otwartym środowisku zespołowym. Prezesi powinni zadbać o stworzenie pracownikom warunków umożliwiających rozwój. Może się to odbywać m.in. przez: powoływanie niekonwencjonalnych zespołów, promowanie czerpania z własnych i cudzych doświadczeń oraz większe wykorzystanie sieci kontaktów pracowników.

Rosnące znaczenie technologii

Według badania IBM, aż 71% prezesów postrzega technologię jako element, który w perspektywie 3-5 lat będzie miał kluczowe znaczenie dla przyszłości ich organizacji. Wpływ technologii będzie przewyższał efekty zmian ekonomicznych i sytuacji na rynku. Wśród badanych CEO z Europy Środkowo-Wschodniej technologie znajdują się na trzecim miejscu listy decydujących czynników (na pierwszym są czynniki rynkowe), ale i tak zanotowały największy wzrost znaczenia w ciągu ostatnich dwóch lat (awans z miejsca 5. na 3.).

Nowe technologie mogą być pomocne przy analizie informacji z otoczenia firmy. Najnowsza edycja CEO Study 2012 pokazała, że 70% prezesów inwestuje w narzędzia, które mają pomóc im w wyciąganiu wniosków na podstawie doświadczenia klientów. Rosnąca ilość danych stwarza zapotrzebowanie na analitykę biznesową. Musi też zmienić się podejście osób zarządzających firmami. Aby lepiej zrozumieć klientów, prezesi powinni brać pod uwagę relacje z firmą i z całym otoczeniem.

Zdolność wnioskowania na podstawie dostępnych danych jest blisko skorelowana z wynikami firmy. Organizacje, które odnoszą największe sukcesy na rynku, dwukrotnie lepiej zdobywają informacje i przeprowadzają bardziej trafne analizy; są też o 84% bardziej skuteczne we wdrażaniu w życie wyników analiz.

Zaangażowanie dla innowacyjności

Większa otwartość dotyczy również kontaktów z partnerami zewnętrznymi. W 2008 r. nieco ponad 50% prezesów było gotowych utrzymywać szerokie kontakty z partnerami biznesowymi. Obecnie ponad 66% jest gotowych na poszerzanie relacji, ponieważ często przyczyniają się one do tworzenia innowacyjnych rozwiązań i skuteczniejszego działania na rynku.

W wyniku zmian technologicznych prezesi będą odchodzić od poczty elektronicznej i telefonu jako narzędzi do budowania relacji z klientami, partnerami biznesowymi i młodszymi pracownikami. Choć zaledwie 16% liderów wykorzystuje media społecznościowe do komunikacji, to w perspektywie 3-5 lat ich liczba wzrośnie do 57%. Za pięć lat staną się one drugim, po rozmowie twarzą w twarz, najpopularniejszym sposobem podtrzymywania kontaktów. Technologia jest postrzegana jako potężne narzędzie zmieniające strukturę organizacji i sposób jej działania. Ponad połowa prezesów (53%) planuje jej wykorzystanie do usprawnienia współpracy z otoczeniem, a 52% będzie podejmować takie działania wewnątrz organizacji.

"Wbrew opiniom o dehumanizacji relacji między ludźmi wnioski z raportu dowodzą, że kapitał ludzki wciąż jest najważniejszym czynnikiem w budowaniu wartości firmy, a media społecznościowe mogą przyczynić się do lepszego wykorzystania zdolności pracowników, doświadczeń klientów i partnerów biznesowych" - podsumowuje Władysław Szwoch, dyrektor Global Business Services w IBM na Polskę i kraje bałtyckie.

Energetyka zaczyna doceniać IT

Do tej pory informatyka w sektorze energetycznym była zepchnięta na dalszy plan. Branża zaczyna jednak dostrzegać rolę IT i będzie inwestować w ten obszar.

Ostatnie lata nie były najlepsze dla polskiego rynku energetycznego. Kumulacja zmian, jednoczesne łączenie się i dzielenie przedsiębiorstw spowodowały, że IT nie było priorytetem w polskich firmach energetycznych. Dlatego sektor jest o krok za innymi branżami. Badania pokazują, że ostatnio dominowały wydatki na sprzęt, bo najłatwiej było inwestować w infrastrukturę, a nie w systemy IT.

Nadrabianie zaległości

Analitycy przewidują, że inwestycje wkrótce ruszą z kopyta. O potrzebach branży redakcja rozmawiała z jej przedstawicielami na spotkaniu "Inteligentna energetyka", podczas którego zaprezentowaliśmy Raport Specjalny Computerworld o tej samej nazwie, poświęcony transformacji IT w sektorze energetycznym. Zaproszenie przyjęli: Sławomir Noske z Energa Operator; Roman Dudzik, CIO w Grupie Kapitałowej Energa; Sławomir Klimowicz, Industry Principal Utilities w SAP CEE; Robert Masiąg, pełnomocnik zarządu ds. wdrożenia sieci inteligentnej w Energa Operator; Krzysztof Billewicz z Politechniki Wrocławskiej; Elżbieta Starakiewicz, Energy and Utilities Leader w IBM oraz Elżbieta Płonka-Szydlak, Senior Manager w Accenture.

Uczestnicy debaty stwierdzili, że zmiany w IT branży energetycznej zostaną wymuszone przez rozwój biznesowy. Sektor dostrzega, że jego narzędzia informatyczne nie wystarczą do dalszego rozwoju. A rynek jest wymagający.

Czas inwestycji w inteligentną energetykę

Do tej pory IT w sektorze energetycznym było rozwijane silosowo, wiele inwestycji prowadzono bez analizy biznesowej, często po najniższych kosztach. Branżę czeka integracja systemów i dużych inwestycji, które inne sektory mają za sobą. Zdaniem niektórych rozwój IT tego sektora częściowo wiąże się z rozwojem konkurencyjności. Ale równie ważne są świadomość menedżerów i dostępność technologii.

Kolejnym etapem rozwoju sektora energetycznego będzie smart grid. Tworzy się przepaść pomiędzy Europą Środkowo-Wschodnią a Europą Zachodnią w rozwoju inteligentnych sieci energetycznych. Podstawą budowania smart gridu są inteligentne liczniki. Eksperci uspokajają, że Polska nie zostanie w tyle, bo projekty nie są zagrożone. Podkreślają, że instalacje inteligentnych liczników nie wystarczą. Potrzebne są systemy IT, które pomogą zarządzać zbieranymi przez liczniki danymi.

Uczestnicy konferencji powtarzali, aby nie bagatelizować bezpieczeństwa. Niewiele mówi się o cyberatakach na energetykę. Jeśli firmy nie zagwarantują bezpieczeństwa danych, mogą spodziewać się protestów i opóźnień w realizacji projektów wdrażania inteligentnych liczników.

Dell stawia na ofertę firm i oprogramowanie

Dell chce uprościć ofertę i skrócić łańcuchy dostaw. W ciągu trzech lat zaoszczędzi w ten sposób 2 mld USD. Pieniądze przeznaczy na rozwój oferty dla klientów biznesowych.

Zarząd amerykańskiego koncernu planuje też przeniesienie produkcji do krajów o niższych kosztach pracy. Oszczędności mają być przeznaczone głównie na rozwój oferty dla klientów biznesowych.

Plany zakładają ograniczenie liczby dostępnych konfiguracji komputerów osobistych i maszyn serwerowych oraz większą standaryzację sprzętu pod kątem wykorzystywanych komponentów. "Obecnie ponad 50% sprzedawanych przez nas komputerów to standardowe konfiguracje. 66% trafiających do klientów komputerów osobistych to maszyny montowane przez zewnętrzne firmy" - mówi Jeff Clarke, wiceprezes Della odpowiedzialny za działalność operacyjną. Planowane zmiany w ofercie i uproszczenie łańcucha dostaw tylko w segmencie komputerów osobistych przyniosą do 2016 r. oszczędności rzędu 1 mld USD. "Nie wycofujemy się z rynku komputerów PC. W tym segmencie zamierzamy prowadzić działalność w sposób zwinny, wykorzystywać luki rynkowe i koncentrować się na produktach wysokomarżowych" - zapowiada Jeff Clarke.

Tak zaoszczędzone środki mają być przeznaczone na rozszerzenie oferty sprzętu, aplikacji i usług skierowanych do odbiorców biznesowych. Rozwój oferty w segmencie oprogramowania biznesowego ma bazować na przejęciach dostawców wyspecjalizowanych rozwiązań, choć Dell zamierza też współpracować z niezależnymi dostawcami oprogramowania biznesowego.

"Nie mamy ambicji przekształcenia firmy Dell w samodzielnego dostawcę oprogramowania" - zapewnia John Swainson, wiceprezes Della. Strategia zakłada rozwój oprogramowania, które będzie oferowane z rozwiązaniami sprzętowymi i usługami biznesowymi koncernu. Władze zamierzają koncentrować się na rozwiązaniach wspierających zarządzanie sprzętem i urządzeniami mobilnymi, narzędziach dla działów IT. Dell chce rozwinąć ofertę oprogramowania biznesowego, które ma być oferowane wraz z dedykowanymi systemami serwerowymi.

Rozwijając oprogramowanie biznesowe, Dell będzie kładł nacisk na aplikacje oferowane w modelu cloud i na aplikacje analityczne BI. Pod kątem segmentu korporacyjnego rozwijana będzie dedykowana oferta sprzętu. Do odbiorców biznesowych skierowane będą oparte na środowisku Windows 8 tablety firmy Dell. Urządzenia pojawią się w ramach linii produktowych Latitude i OptiPlex.

Analityka SAP w Spółdzielni Mleczarskiej ROTR

Głównym celem wdrożenia systemu analityki biznesowej w rypińskiej spółdzielni była optymalizacja zarządzania finansami i procesami sprzedaży.

Uruchomienie systemu klasy Business Intelligence było kolejnym, po wdrożeniu oprogramowania klasy ERP, etapem rozwoju narzędzi wspierających zarządzanie firmą. Spółdzielnia Mleczarska ROTR korzysta z systemu SAP ERP od 2008 r. Obecnie w hurtowni danych gromadzone są informacje na temat sprzedaży, dystrybucji, ruchów materiałowych, finansów i controllingu. Do tworzenia raportów wykorzystywana jest funkcjonalność środowiska SAP BusinessObjects Enterprise. "W przypadku branży mleczarskiej dane na temat wielkości marż czy kosztów wytworzenia pojedynczego produktu to newralgiczne informacje. Stąd decyzja o rozbudowie rozwiązań SAP o narzędzia analityczne. SAP Business Intelligence pozwoli podejmować decyzje na podstawie aktualnych i wysokiej jakości danych, uwzględniających zachodzące na rynku zmiany" - mówi Mariusz Trojakowski, prezes zarządu Spółdzielni Mleczarskiej ROTR. Projekt zakładał wykorzystanie oprogramowania w modelu outsourcingu. Obecnie oprogramowanie SAP Business Intelligence jest hostowane w Centrum Outsourcingowym firmy BCC. Specjaliści BCC odpowiadają za utrzymanie oprogramowania. Realizację projektu powierzono ekspertom firmy 7milowy, spółki zależnej BCC.

Innowacja musi mieć cel

Z Jarosławem Hermannem, dyrektorem Obszaru Operacji i IT, członkiem zarządu AXA Polska, o innowacji i zwinnych metodykach pracy rozmawia Andrzej Maciejewski.

Od kilkunastu lat zarządza Pan informatyką w dużych organizacjach. Jak definiuje Pan innowację?
Definicja innowacji zależy od kontekstu - rynku i branży, w której działa organizacja. To, co będzie innowacyjne w Polsce, niekoniecznie będzie postrzegane w ten sam sposób na świecie. Naprawdę innowacyjnych firm jest niewiele. To one wyznaczają trendy i kierunki, po które sięgają firmy wcześnie adaptujące rozwiązania. W takim szerszym kontekście rozumiem innowację w Polsce - jako wykorzystanie wczesnych trendów światowych.

Czy innowacja powinna być zawsze postrzegana jako innowacja technologiczna?
Firma może być innowacyjna produktowo, a także obsługowo. Innowacyjny produkt niekoniecznie musi być wsparty innowacyjną technologią - może być po prostu inaczej skonstruowany, sprzedawany oraz może dostarczać nowe, wcześniej niespotykane doświadczenie klientowi.

Co oznacza innowacja dla organizacji?
Dla firmy innowacja to przede wszystkim pojawienie się nowego produktu lub rozwiązania, ale nie tylko. Innowacją może być również uproszczenie lub usprawnienie jakiegoś procesu, np. produkcji lub zarządzania firmą. Jednak w mojej ocenie, jeżeli innowacja nie służy osiągnięciu przewagi konkurencyjnej, określonych celów biznesowych, jest niepotrzebnym wysiłkiem. Trzeba też pamiętać, że firmy innowacyjne stają się bardziej atrakcyjnym pracodawcą przyciągającym najlepszych pracowników, co niezwykle wspiera pozycję innowacyjną firmy.

To znaczy, że innowacja kosztuje?
Zawsze! Wymaga nakładów finansowych oraz wysiłku pracowników. Jeżeli nie podejmujemy tego trudu z wizją końca, wiedząc, do czego innowacja ma służyć, jakie przynieść efekty, to istnieje niebezpieczeństwo, że stanie się ona po chwili ciekawostką. Właśnie dlatego wiele innowacji nie przynosi efektu. To prowadzi do pytania: czy firmy są gotowe ponosić porażki innowacyjne? Bo muszą się liczyć z tym, że niektóre z działań innowacyjnych zakończą się porażką. Jednak taka porażka może być dobrą lekcją na przyszłość.

Zatem jeżeli firma stawia na innowację, to powinna umieścić ją w strategii rozwoju?
To zależy od branży, w której działa. Czy jeżeli innowacyjność nie jest częścią strategii, a tak również może być, oznacza to, że firma nie będzie przygotowana na koszty opracowania rzeczy nowych i wówczas innowacyjności nie osiągnie? Wydaje mi się, że nie. Współczesna gospodarka stale wymusza na firmach działania innowacyjne, więc nawet jeżeli nie wpiszemy ich w strategię, to i tak do podjęcia części z nich zmusi nas rynek. Oczywiście, umieszczenie działań innowacyjnych w strategii firmy ułatwia ich podejmowanie.

Pana firma działa właśnie w branży ubezpieczeniowej. Czy jest tu w ogóle miejsce na innowacyjność?
AXA jest agresywnym graczem na rynku, zdobywa klientów niestandardowymi produktami. Wymaga to przyspieszenia tempa pracy wewnętrznej. Jak powiedział Albert Einstein, szaleństwem jest robić wciąż to samo i oczekiwać za każdym razem odmiennych rezultatów. Dlatego od dwóch lat zmieniamy sposób pracy działu rozwoju oprogramowania. Dotychczasowy model działania nie przynosił spodziewanych efektów związanych z jakością oprogramowania, terminowością oraz elastycznością wprowadzanych zmian. Zastosowaliśmy innowacyjną w tej branży zwinną technikę programowania. Jest to istotny element procesu nie tylko technologicznego, ale również organizacyjnego i sprzedażowego - przyspieszenia wprowadzania produktów na rynek.

Czy łatwo przestawić organizację IT na stosowanie zwinnych metodyk programowania?
Stopniowe wprowadzanie technik zwinnych poprzedziło wdrożenie narzędzi do automatyzacji procesu produkcji oprogramowania. W ten sposób cały zespół był przygotowywany do planowanej zmiany. Odbiór był pozytywny - zmiana została potraktowana jako rzecz inna, ciekawa. Niewiele jest miejsc na świecie, w których można nauczyć się tej metodyki, a co dopiero w Polsce. W ten sposób innowacja podnosi także atrakcyjność miejsca pracy. Rzadko która duża firma stosuje SCRUM. Jest on popularny raczej wśród firm piszących oprogramowanie na zamówienie.

Czy osiągnęliście oczekiwane rezultaty? Czy zastosowanie zwinnych metodyk przyniosło sukces, o którym mówiliśmy wcześniej?
Tak, na przykład nowy, ważny produkt został przygotowany w cztery miesiące. Tylko tyle czasu minęło od pomysłu do przemysłu. To była dla nas ogromna różnica. Oczywiście, wprowadzaliśmy SCRUM stopniowo, zaczynając od niewielkiego obszaru, z jednym systemem i jednym klientem wewnętrznym. Efekt był pozytywny. Pomimo dużego zaawansowania proces adaptacji metodyki wciąż trwa.

Jarosław Hermann będzie prelegentem III Kongresu Lidera Informatyki, 27-28 września 2012.

Byle na prostą!

Zarządzanie projektem w sytuacji kryzysowej wymaga przywództwa i umiejętności komunikacyjnych. Przejście przez trudności może wzmocnić zespół projektowy.

W książkach o zarządzaniu projektem wszystko jest łatwe. Określamy cel i zakres projektu, identyfikujemy interesariuszy, uzyskujemy budżet, budujemy macierz zadań, umiejscawiamy je w czasie, a następnie realizujemy, stopniowo przekraczając punkty kontrolne. Wreszcie osiągamy zamierzony cel, podsumowujemy wszystko raportem zamknięcia, wypłacamy premie i udajemy się do kolejnych obowiązków.
W praktyce jest znacznie trudniej. Projekt, który ma problem tylko z jednym z tych obszarów to norma. Ale zdarzają się projekty, które mają wszystkie z wyżej wymienionych problemów jednocześnie. Ciągną się latami, liderzy przychodzą i odchodzą, zakres się zmienia, budżet puchnie, a efekty są skromne.

Taki projekt wymaga szczególnego podejścia, a jego lider musi mieć niezwykłe umiejętności, wyczucie czasu oraz... sporo szczęścia. I o tym jest ten artykuł.

Przerwać błędne koło

Sytuacja w projekcie kryzysowym przypomina błędne koło. Projekt nie przynosi rezultatów, więc zespół jest zdemotywowany. Zespół jest zdemotywowany, a więc przekraczane są kolejne terminy. Ponieważ terminy są przekraczane, projekt traci poparcie sponsora i interesariuszy. Słabnące poparcie i upływający czas sprawiają, że zmienia się zakres projektu. Nic dziwnego, że w takiej sytuacji nie udaje się osiągnąć oczekiwanych rezultatów. A skoro nie ma rezultatów... itd., itp.

Pierwszą rzeczą, którą należy zrobić, to przerwać błędne koło. Można to zrobić w dowolnym miejscu, ale warto zacząć od zapanowania nad otoczeniem, czyli oczekiwaniami interesariuszy. Lider projektu powinien szczerze porozmawiać z nimi i poprosić o określenie swoich oczekiwań i ram projektu - w dowolnej formie, np. zdań określających oczekiwania. Z prawdopodobieństwem graniczącym z pewnością dostrzeże, że wiele oczekiwań jest sprzecznych, a wiele także nierealistycznych. Pierwszą jego czynnością powinno być więc zapanowanie nad oczekiwaniami.

Najlepiej zrobić to za pomocą wykonanej na nowo karty projektu, od początku określając cel i zakres projektu oraz jego kluczowe założenia. A następnie zaprosić wszystkich interesariuszy na "drugie otwarcie" projektu, by uzyskać ich poparcie dla proponowanych zmian. Warto poświęcić więcej niż chwilę na pokazanie sytuacji taką złą, jaką jest faktycznie. Nie po to, by epatować negatywnym komunikatem, ale po to, by uzmysłowić wszystkim, że ponadstandardowe problemy wymagają ponadstandardowych działań.

Ważne jest, aby nowa karta precyzowała mniej ambitne, ale za to bardziej konkretne oraz zarysowane w krótszym terminie cele projektu. Zamiast więc mówić o "wdrożeniu kompletnego systemu informacji zarządczej dla wszystkich szczebli zarządzania", trzeba powiedzieć o "dostarczeniu metryk dla kierownictwa działu sprzedaży". Projekt można podzielić na części; "w drugiej części będą analogiczne metryki dla działu produkcji". I ustalić zasadę: każda zmiana celu, zakresu, harmonogramu lub interesariuszy projektu powinna być zatwierdzana przez jego sponsora lub komitet sterujący, ale - uwaga! - po uprzednim określeniu wpływu na harmonogram, koszty i ryzyka projektu przez jego lidera.

Tak więc pierwszym zadaniem lidera, który przejął projekt w kryzysie, jest urealnienie oczekiwań i uzyskanie konsensusu wokół tego, co jest nowym, realistycznym celem i zakresem przedsięwzięcia. A także - uzyskanie nowego kredytu zaufania dla siebie i zespołu.

Ogniskowanie zespołu

Po ustabilizowaniu projektu "na zewnątrz" lider powinien zwrócić się ku zespołowi. Z poziomu ogólnych oczekiwań trzeba zejść na poziom konkretnych planów, określając proste, ale konkretne i realistyczne cele na najbliższy czas. Zespół projektu w kryzysie bardziej niż na narzędzia jest wyczulony na emocje. Widział już wiele harmonogramów, kamieni milowych, tablic z analizą ryzyka i matryc WBS. Zawartość większości z tych dokumentów podczas trwania projektu rozminęła się z rzeczywistością i została zapomniana.

Lider na początku ma tylko jedno narzędzie odbudowy wiary i zaufania w zespole: własne zdolności przywódcze. Teoretycy zarządzania odróżniają dwie dziedziny: zarządzanie oraz przywództwo. Działanie w pierwszej z nich polega w dużej mierze na "twardych" umiejętnościach: wyznaczaniu zadań, kontroli operacyjnej, egzekwowaniu zobowiązań, systemie nagród i kar. Druga to raczej sfera działań miękkich: wyznaczania wizji, umiejętności motywowania, coachingu pracowników, zarządzania komunikacją i nastrojami.

W pierwszej fazie podnoszenia projektu (i zespołu projektowego) z kryzysu trzeba użyć przede wszystkim umiejętności z tej drugiej dziedziny - czyli przywództwa. Jest to niezmiernie trudne, dlatego że ludzie mają zmysły niezwykle wyczulone na sprzeczne komunikaty. Jest tylko jeden sposób, by sprawić, aby zespół uwierzył w sukces: uwierzyć w sukces samemu i zarazić tą wiarą innych.

Komunikacja, komunikacja, komunikacja

Utrzymanie poparcia sponsora i interesariuszy, a także zaangażowania zespołu wymaga ciągłej, regularnej komunikacji. Nie da się przecenić tego czynnika - dla projektu w kryzysie jest on dalece ważniejszy niż wszelkie "twarde" narzędzia zarządzania projektem.

Komunikacja wobec interesariuszy ma dwie funkcje. Po pierwsze, ma ich utwierdzić w przekonaniu, że trudne decyzje były konieczne, a projekt po ich podjęciu zaczął wychodzić na prostą. Po drugie, ma umożliwić szybką reakcję, gdyby jego realizacja zatrzymała się na przeszkodzie (np. biurokracji). Lider z reguły nie posiada dostatecznego umocowania, aby przezwyciężyć wszystkie trudności. Włączanie "możnych" (np. sponsora projektu, beneficjentów) pozwoli na szybkie pokonanie przeszkód i uniemożliwi wytrącenie zespołu projektowego z rytmu.

Niektórzy liderzy oszczędnie komunikują problemy, nie chcąc wyjść na mięczaków, którzy nie potrafią sobie z nimi poradzić. W praktyce jest odwrotnie: brak problemów w projekcie postrzegany jest przez wyższe kierownictwo jako ukrywanie jego faktycznego stanu i budzi zaniepokojenie. Zanim prezesi zostali prezesami, też byli liderami projektów i realizowali przedsięwzięcia w trudnym otoczeniu. Doskonale więc wiedzą, że czegoś takiego jak projekt bezproblemowy zwyczajnie nie ma.

Pełna "przezroczystość" projektu wobec świata zewnętrznego sprawi też, że ani lider, ani zespół nie będą zamęczani tysiącem telefonów i listów od różnych osób z tym samym pytaniem: "jak idzie?". Pozwoli to zaoszczędzić czas oraz prezentować jeden spójny obraz rzeczywistości na zewnątrz.

Równie ważna jest komunikacja do wewnątrz projektu. Powinna to być komunikacja budująca morale zespołu projektowego oraz utrzymująca zaangażowanie i tempo. Każdy kamień milowy, który projekt osiąga, trzeba podsumowywać, każdy sukces - świętować. Ponadstandardowe działania (np. wyjątkowy, kreatywny pomysł albo poświęconą projektowi sobotę) trzeba ponadstandardowo docenić. Jeśli nie pieniędzmi, to przynajmniej miłym gestem, uściskiem dłoni, ciepłym słowem. Proste środki potrafią czynić cuda.

Po prostu codzienna praca

Nawet najdłuższa droga składa się z odcinków, a każdy odcinek z kroków. Na etapie realizacji projektu nie wolno więc tracić ani jednego dnia, ani jednej godziny. Koncentrując się na czynnikach miękkich - budowaniu zaangażowania, komunikacji, motywacji i zarządzaniu oczekiwaniami - nie wolno tracić z oczu codziennych zmagań. Frederick Brooks w klasycznej książce "Mityczny osobomiesiąc" przytacza powiedzenie: "Jak to się dzieje, że projekt opóźnia się o rok? Za każdym razem opóźnia się o jeden dzień". Pojedyncze godziny mają tendencję do przeradzania się w dni, dni w miesiące, miesiące w kwartały.
Codzienny operacyjny nadzór nad działaniami pozwoli nie tylko na wywiązanie się z terminów i pokazanie otoczeniu, że nowy, ograniczony zakres i nowe terminy są osiągalne. Pomoże także utrzymać zaangażowanie ludzi - bo tak już jesteśmy skonstruowani, że lubimy osiągać sukcesy. Osiągnięcia dowartościowują nas we własnych oczach, a dowartościowani pracownicy lepiej pracują. Zaś przekraczane terminy uruchamiają natychmiast uwagę i zaangażowanie sponsora oraz interesariuszy, prowadząc do "prostowania ścieżek" i przezwyciężania trudności.

Kryzys cementuje zespół

Z biegiem czasu kryzys w projekcie pozostanie tylko złym wspomnieniem. Ale także czymś więcej: wartościową nauką, która rozszerzy całemu zespołowi paletę doświadczeń i zaimpregnuje go na trudności w kolejnych projektach. Pracownicy postawieni w obliczu nowego kryzysu będą w stanie go przezwyciężyć albo - co bardziej prawdopodobne - nawarstwiające się problemy dostrzegą w porę i rozwiążą, zanim doprowadzą one do kryzysu.
"Wszystko, co cię nie zabije, to cię wzmocni" - mówi popularne powiedzenie. Przejście przez kryzysową sytuację może więc per saldo dobrze przysłużyć się projektowi i jego uczestnikom. Czego na zakończenie artykułu i Czytelnikom, i sobie autor życzy.

Sprawdzony system, pionierskie zastosowania

Specyficzne potrzeby spółki GEA Technika Cieplna idą w parze z ciekawymi pomysłami na wykorzystanie systemu ERP w sposób inny, niż przewidzieli jego twórcy.

METRYCZKA
Firma: GEA Technika Cieplna
Branża: Przemysł
Produkty: Wymienniki ciepła, nagrzewnice, chłodnice, konwektory
Zatrudnienie: 250
Zatrudnienie w dziale IT: 3
Przychody w 2011 roku: 21 mln euro

KLUCZOWE SYSTEMY
Nazwa systemu: QAD Enterprise Applications
Do czego służy: Zarządzanie produkcją, gospodarką magazynową, zaopatrzeniem, finansami oraz księgowością, sprzedażą; wsparcie dla przygotowania produkcji
Dostawca: QAD Polska

Opolska spółka GEA Technika Cieplna specjalizuje się w produkcji wymienników ciepła, nagrzewnic, chłodnic i konwektorów. Rocznie produkowanych jest około 5 tys. sztuk tych urządzeń. W ofercie firmy znajduje się niemal 400 rodzajów samych tylko wymienników ciepła dla przemysłu. Tak duża różnorodność wymaga precyzyjnego planowania procesów produkcji, którym z kolei podporządkowane są pozostałe działania biznesowe. Proces przygotowania produkcji i kompletacji dokumentacji technologicznej dodatkowo komplikuje wysoki stopień złożoności wyrobów. O ile najprostsze wymienniki ciepła mogą składać się z kilkudziesięciu elementów, tak te bardziej skomplikowane liczą nawet kilka tysięcy części.

Pierwsze rozwiązanie klasy ERP w GEA Technika Cieplna wdrożono w 2003 roku. System QAD MFG/Pro objął wszystkie obszary działalności firmy. Największą wynikającą z jego zastosowania zmianą było usystematyzowanie pracy i przepływu informacji. "Wcześniej w firmie wykorzystywane były niezależne rozwiązania wspierające głównie zarządzanie gospodarką magazynową oraz sprawy kadrowo-płacowe. Wówczas nie oczekiwaliśmy zbyt wiele od systemu ERP. Z dzisiejszej perspektywy uważam, że niewykorzystanie pełnego potencjału tego narzędzia było naszym błędem" - mówi Jacek Nazgowicz, kierujący działem IT w firmie GEA Technika Cieplna.

Potrzeba wdrożenia nowej wersji systemu była związana z rozwojem firmy. "W skali całej organizacji brakowało nam procesowego podejścia. Podstawowym narzędziem były arkusze kalkulacyjne, a one w żaden sposób nie wymuszają systematyki i pilnowania kolejności działań" - dodaje Jacek Nazgowicz.

Nowy system, nowe możliwości

Głównym celem modernizacji oprogramowania QAD MFG/Pro, które w międzyczasie przeistoczyło się w system QAD Enterprise Applications, była optymalizacja kluczowych procesów biznesowych. Szczególny nacisk położono na planowanie produkcji oraz zarządzanie procesami wsparcia. "Ominęło nas aż siedem wersji systemu, więc wdrożenie najnowszego wydania systemu QAD było dla nas wejściem w inny świat. Zasadniczo zmienił się nie tylko interfejs, ale także możliwości systemu" - podkreśla Jacek Nazgowicz.

Specyfika wdrożenia systemu QAD Enterprise Applications w firmie GEA Technika Cieplna wynika z nietypowego wykorzystania funkcjonalności konfiguratora produktów. Oprogramowanie przeznaczone przede wszystkim do obsługi zamówień znalazło zastosowanie na etapie przygotowania produkcji. Odpowiadając na pytania zawarte w kwestionariuszu, technolodzy mogą dużo łatwiej niż wcześniej budować materiałowy i technologiczny model zamówionego produktu. W oparciu o dostarczone w ten sposób informacje aplikacja automatycznie generuje niezbędne parametry technologiczne. "Zastosowaliśmy moduł konfiguratora do zupełnie innych celów niż jego pierwotne przeznaczenie. Korzystamy z jego funkcjonalności do tworzenia zleceń roboczych, przygotowania produkcji i tworzenia dokumentów technologicznych dla standardowych wyrobów. Czas opracowania dokumentacji produkcyjnej spadł diametralnie" - mówi Jacek Nazgowicz.

Przed uruchomieniem tego rozwiązania na opracowanie technologii i listy materiałowej dla standardowych zleceń potrzeba było kilku godzin. Obecnie jest to wykonywane zaledwie w 20 minut. "Produkujemy ponad setkę standardowych wymienników ciepła tygodniowo. Przy tej skali działania daje to naprawdę wymierne oszczędności" - podkreśla Jacek Nazgowicz. Dodatkowe korzyści wynikają z faktu, że technolodzy są w stanie przygotować pełną dokumentację za pośrednictwem jednego narzędzia. Przed uruchomieniem modułu QAD Configurator wykorzystywane były trzy odrębne aplikacje. Funkcjonalność systemu QAD Enterprise Applications jest wykorzystywana także do przygotowania dokumentacji nietypowych produktów. Tutaj jednak część pracy nadal musi być wykonywana ręcznie.

95% biznesu w systemie

Jacek Nazgowicz, kierownik działu IT w firmie GEA Technika Cieplna
"Za cel postawiliśmy sobie pozbycie się wszelkich dodatkowych rozwiązań. Założyliśmy, że każde zadanie musi przechodzić przez jeden system. Obecnie wykonanie tego planu sięga dziewięćdziesięciu pięciu procent".W ramach oprogramowania stworzone zostały również dodatkowe funkcjonalności odpowiadające specyficznym potrzebom pracowników firmy. "Za cel postawiliśmy sobie pozbycie się wszelkich dodatkowych rozwiązań. Założyliśmy, że każde zadanie musi przechodzić przez jeden system. Obecnie wykonanie tego planu sięga dziewięćdziesięciu pięciu procent" - podkreśla Jacek Nazgowicz. System QAD Enterprise Applications ułatwił na przykład tworzenie raportów i analiz biznesowych na potrzeby kierownictwa firmy GEA Technika Cieplna oraz niemieckiej centrali. Wspiera zarządzanie finansami i księgowością.

Przedstawiciele opolskiej spółki zapowiadają wykorzystanie funkcjonalności systemu w kolejnych obszarach działalności. Planowane jest uruchomienie dedykowanych narzędzi klasy Business Intelligence, mobilnych narzędzi menedżerskich oraz kompleksowych funkcji z zakresu zarządzania łańcuchem dostaw. "Wszystko dziś rozbija się o raporty, analizy i łatwy do nich dostęp. Chcemy dostarczyć osobom decyzyjnym narzędzia pozwalające sprawnie podejmować decyzje, bez względu na to, czy są na lotnisku, czy w hotelu" - zapowiada Jacek Nazgowicz.

Jego zdaniem, duży potencjał w zakresie optymalizacji działań firmy leży w sferze logistyki. Wdrożenie zaawansowanych mechanizmów klasy SCM ma pozwolić na lepszą koordynację dostaw i pracy magazynu, a także bezpośrednie sprzęgnięcie procesów gospodarki magazynowej z produkcją oraz dostawami. "Zamierzamy usystematyzować plan pracy magazynu i skoordynować terminy dostaw. Chcemy wręcz wskazywać dostawcom, o której godzinie dany towar ma przyjechać" - mówi Jacek Nazgowicz.

W dłuższej perspektywie planowane jest uruchomienie funkcjonalności z zakresu zaawansowanego planowania produkcji.

niedziela, 24 czerwca 2012

Polskie IT wychodzi na prostą

Połowa przedstawicieli największych firm informatycznych w Polsce uważa, że koniunktura na rynku jest dobra lub bardzo dobra. Wyniki branży uzasadniają ten optymizm: w 2011 r. jej przychody wzrosły o 8,3%.

Rok 2011 był drugim z rzędu, w którym po załamaniu z roku 2009 branża informatyczna powiększyła swoje przychody - wynika z raportu Computerworld TOP200, który ukaże się 26 czerwca. Raport ukazuje się co roku od 21 lat i jest najpełniejszym badaniem polskiego sektora IT.

Administracja na czele

Z badania wynika, że przychody firm informatycznych wyniosły w ubiegłym roku 31,3 mld zł, o 2,3 mld więcej niż rok wcześniej. Najwięcej na IT wydała administracja - 2,4 mld zł, o 17% więcej niż przed rokiem "W administracji publicznej samorządy i regiony bardzo aktywnie wykorzystują środki unijne dla wdrożenia rozwiązań IT"- ocenia prezes HP Polska Paweł Czajkowski.

Zdaniem Czajkowskiego ten trend może się utrzymać dzięki powołaniu Ministerstwa Administracji i Cyfryzacji. Rząd potwierdził w ten sposób, że informatyzacja administracji publicznej należy do jego priorytetów. "Liczymy na to, że Ministerstwo Administracji i Cyfryzacji wspólnie z biznesem wypracuje rozwiązania, które umożliwią realizację zaplanowanych projektów informatycznych i jak najszybsze nadrobienie zaległości w tym obszarze" - mówi Czajkowski.

Także inni szefowie firm informatycznych uważają, że realizacja planów przygotowywanych MAiC zaowocuje nowymi projektami w dziedzinie e-administracji. "Mam nadzieję, że działania Ministerstwa Administracji i Cyfryzacji odwrócą niekorzystny dla nas jako obywateli stan. Kompleksowa infrastruktura teleinformatyczna stanie się platformą umożliwiającą sprawne świadczenie usług publicznych" - uważa prezes NextiraOne Polska Marek Kobielski.

Energetyka w górę

Równie atrakcyjnym i zasobnym klientem jak administracja jest sektor użyteczności publicznej, na czele z energetyką, która wciąż pozostaje rynkiem regulowanym. Stopniowa liberalizacja sprawia, że rośnie zapotrzebowanie na narzędzia, które pomogą prowadzić nowoczesny biznes, kontrolować koszty i obsługiwać klienta. To zmusi energetykę do większych inwestycji w IT. W 2011 roku ich wartość sięgnęła 804,5 mln zł, co dało roczny wzrost wydatków o 44%.

Dużo więcej niż energetyka wydają na IT sektory bankowości oraz telekomunikacji

- każdy z nich ponad 1,6 mld zł. Ich inwestycje teleinformatyczne wzrosły odpowiednio o 7% i 13%. Na tym rynku trudno konkurować bez wsparcia narzędzi komputerowych, co sprawia, że od lat obie te branże przodują w wydatkach na IT. Podobnie jak przemysł, choć w 2011 roku wartość inwestycji tego sektora według Computerworld TOP200 obniżyła się nieznacznie, o 3%. Nie oznacza to kryzysu, ale jest odbiciem ważnego trendu w wykorzystywaniu informatyki.

"W bieżącej sytuacji gospodarczej coraz więcej firm zmienia swoją strategię z ofensywnej na defensywną. Oznacza to skupienie się na optymalizacji istniejącego portfela produktów i usług oraz utrzymaniu klienta, a także lepszym wykorzystaniu posiadanych zasobów" - opisuje sytuację Anna Sieńko, dyrektor generalna IBM Polska i Kraje Bałtyckie.

Zaskoczeniem może być sytuacja sektora MŚP. Według naszego zestawienia, jego wydatki na IT spadły w 2011 r. aż o 24%. Wyniosły tylko 805 mln zł, podczas gdy w roku 2010 przekraczały 1 mld zł i były niewiele niższe niż nakłady całego przemysłu na IT.

Zyskują dystrybutorzy

Z raportu Computerworld TOP200 wynika, że dobrze radzą sobie dystrybutorzy sprzętu: ABC Data, Action oraz AB. Z tej trójki największy wzrost, o 34%, odnotował Action, zwiększając wartość sprzedaży na polskim rynku o 700 mln zł. "Korzystamy na tym, że globalny producent, sam zmagając się trudnym rynkiem czy poszukiwaniem oszczędności, chętnie postawi na dobrze przygotowanego partnera. Dzięki temu możemy poszerzać asortyment" - tłumaczy prezes Action Piotr Bieliński.

Badane firmy poprosiliśmy także o prognozę koniunktury w 2012 roku. Okazało się, że optymistów jest tyle samo co pesymistów. Poprawy sytuacji spodziewa się 49% firm uczestniczących w tegorocznym raporcie TOP200. "Nie widzimy na naszym rynku kryzysu. Jego potencjał w 2012 roku oceniamy nie gorzej, natomiast biorąc pod uwagę plany inwestycyjne naszych klientów na 2012 rok, z pewną jest szansa na więcej" - prognozuje Andrzej Swolkień, wiceprezes zarządu Qumak-Sekom.

Unia przerwie impas w sprawie e-podpisu

Nowe rozporządzenie znosiłoby krajowe regulacje, włącznie z polską ustawą o e-podpisie i regulacjami dotyczącymi jego stosowania w innych aktach prawnych.

Komisja Europejska zaproponowała rozwiązanie, które może zmienić regulacje dotyczące podpisu elektronicznego w Europie. Zamiast dyrektywy regulującej kwestie e-podpisu (z 1999 r.), na której bazie powstała polska Ustawa o podpisie elektronicznym, Parlament Europejski miałby zatwierdzić rozporządzenie, które ujednolici techniczne aspekty stosowania e-podpisu i towarzyszących mu usług w ramach całego wspólnotowego rynku. Rozporządzanie w fazie projektu będzie przedmiotem konsultacji. Dokument mógłby obowiązywać najwcześniej na początku 2014 r.
Ten zgłoszony przez europejską komisarz ds. agendy cyfrowej Neelie Kroes tego samego dnia przedstawił w Polsce Gerard Galler z Dyrekcji Generalnej ds. Społeczeństwa Informacyjnego i Mediów przy Komisji Europejskiej. Galler był gościem Europejskiego Forum Podpisu Elektronicznego w Międzyzdrojach.

{{s:183060}Trudny start

Komisję skłoniła porażka poprzedniej koncepcji otwartej dyrektywy wypełnianej konkretem krajowej legislacji. Powstały niespójne rozwiązania, podpis elektroniczny znalazł jedynie wyspowe zastosowania, o wspólnym unijnym e-rynku nie było mowy. Nie wiadomo nadal, jak zmienić błędy dotychczasowego podejścia, gdzie skupiano się na legislacji i dopracowaniu niezmiernie złożonego modelu technicznego, gubiąc z oczu końcowego użytkownika. Ten zaś obawia się go stosować. Motorem powinien być biznes i sektor publiczny.

Zdaniem osób zaangażowanych w sprawy podpisu cyfrowego, obecne poszukiwanie oszczędności przez sektor publiczny w Europie może być impulsem rozwojowym dla e-podpisu i e-usług. Andras Attila Barsi z firmy Microsec, która ma ponad trzy czwarte rynku infrastruktury klucza cyfrowego na Węgrzech, twierdzi, że zwrot z inwestycji w te rozwiązania w przypadku jego klientów przekracza nawet 1000%!

{{s:183061}Podzielony świat

Coraz ważniejszy problem stwarza odrębność systemów certyfikatów, stanowiących podstawę funkcjonowania podpisów elektronicznych. Problem dotyczy nawet kluczowych środowisk IT, opartych na popularnych programach do zarządzania dokumentami firm Adobe i Microsoft, a nawet rozwiązań Google. Te same problemy występują w e-administracji. Wszystko wskazuje, że Komisja Europejska będzie starała się wpłynąć na duże koncerny IT, żeby wypracować rozwiązanie, jednak trudno dzisiaj przesądzać o skuteczności takich działań.

Europejskie Forum Podpisu Elektronicznego od kilkunastu lat organizuje szczecińskie Unizeto. Gromadzi ono stu kilkadziesięciu najlepszych w Europie ekspertów od podpisu elektronicznego z różnych firm i instytucji. Większość uczestników konferencji stanowią goście z zagranicy i jest to chyba jedyna konferencja IT w Polsce, która przyciąga zainteresowanych z Rosji, Białorusi, Kazachstanu i innych krajów na wschodzie.

ENISA wspiera przygotowania polskich ćwiczeń z ochrony infrastruktury krytycznej w cyberprzestrzeni

Europejska Agencja Bezpieczeństwa Sieci i Informacji - ENISA pomoże w przygotowaniach do pierwszych polskich ćwiczeń z ochrony infrastruktury krytycznej w cyberprzestrzeni.

ENISA powołana została do działań na rzecz poprawy bezpieczeństwa teleinformatycznego w Europie. W zakresie ćwiczeń Agencja ma duże doświadczenia, gdyż sama współorganizowała pierwsze ogólnoeuropejskie ćwiczenia tego typu - CYBER EUROPE 2010. Organizatorzy pierwszych polskich ćwiczeń (Tygodnik Computerworld, Fundacja Instytut Mikromakro i Fundacja Bezpieczna Cyberprzestrzeń) przyjęły opracowaną i opublikowaną przez ENISA metodykę przygotowania ćwiczeń. Polskie ćwiczenia spotkały się z zainteresowaniem Agencji, która wspiera krajowe inicjatywy tego typu. Mają one wzmocnić ogólną zdolność krajów europejskich do reagowania na przypadki ataku na infrastrukturę krytyczną. To jeden ze strategicznych celów działania Agencji.

QAD finalizuje przejęcie producenta narzędzi SCM

Zakup DynaSys ma pozwolić na uzupełnienie możliwości oprogramowania QAD o mechanizmy SCM (Supply Chain Management) wspierające prognozowanie, planowanie i optymalizację przebiegu łańcuchów dostaw. QAD zapłaciła za francuską spółkę ok. 6 mln euro.

DynaSys ma funkcjonować jako oddział QAD. Rozwiązania francuskiej spółki były oferowane przede wszystkim na rynku francuskim. Teraz rozwijane przez DynaSys oprogramowanie n.SKEP będzie oferowane na całym świecie w ramach oferty QAD. Planowane jest również zwiększenie nakładów na jego rozwój. Zintegrowany pakiet rozwiązań wspierających zarządzanie złożonym łańcuchem dostaw i zmiennym popytem klientów będzie najpewniej rozwijany pod kątem potrzeb firm działających w sektorach, do których kierowany jest system QAD Enterprise Applications. Obecnie z rozwiązań DynaSys korzystają klienci z sektora farmaceutycznego i chemicznego.

PKP Cargo Tabor-Pomorski z systemem ERP

Nowo powstała spółka, wydzielona z PKP Cargo, do której głównych zadań należy naprawa taboru kolejowego, wdrożyła system Comarch OPT!MA.

Kluczowym elementem wdrożenia było przygotowanie sposobu naliczania wynagrodzeń pracowników odpowiadających za naprawy. Firma wdrożyła moduły: Handel, Analizy, Business Intelligence, Płace i Kadry, Księga Handlowa i Środki Trwałe. Dużym sukcesem wdrożenia jest przygotowanie raportowania dla spółki-matki. W PKP Cargo sporządzany jest bilans skonsolidowany, który powstaje na podstawie danych otrzymywanych ze spółek-córek. W PKP Cargo Tabor-Pomorski plan kont przygotowano tak, by maksymalnie odwzorować ten w spółce-matce, co umożliwia przesyłanie zestawień obrotów i sald w krótkim czasie. Wdrożenie Comarch OPT!MA pozwoliło na uporządkowanie gospodarki magazynowej we wszystkich oddziałach firmy. Wkrótce nastąpi uruchomienie modułu BI, który pozwoli na elastyczne tworzenie raportów i analiz.

Wytwarzanie przyszłości

Systemy wytwórcze powinny być integrowane z całością oprogramowania przedsiębiorstwa. Jakie cechy będzie miała organizacja fabryki przyszłości?

W czasach rynkowych zawirowań, giełdowych turbulencji i groźby pękania kolejnych baniek finansowych ekonomiczne wahadło w naturalny sposób wychyla się w kierunku wartości sprawdzonych i pewnych: gospodarki realnej (real economy). To tzw. świat cegieł i zaprawy (brick and mortar world). Nieprzypadkowo "cegły" w postaci angielskiego skrótu BRICS to także określenie grupy największych państw "wschodzących" (emerging markets): Brazylii, Rosji, Indii, Chin, RPA (South Africa). Krajów, których ekonomie w znacznej mierze bazują na tym, co da się zmierzyć w tonach, metrach sześciennych czy sztukach transportowanych kontenerów. Chińskie zabawki, rosyjski gaz, indyjska stal, brazylijska kawa czy południowoafrykańskie diamenty to wyroby czy surowce powszechnie znane. Dodajmy, że wymienione kraje mają także rozwinięte usługi (Indie są czołowym producentem oprogramowania) i przemysł wyrobów wysokich technologii, np. brazylijskie samoloty Embraer czy myśliwce Atlas Cheetah z RPA.

Zalety stabilnych i zbilansowanych materialnie gospodarek widać na tle negatywnego akronimu PIGS, przyporządkowanego Portugalii, Włochom, Grecji i Hiszpanii. Wnioski dla Polski? Zostawmy majstrowanie kursami walut czy handel opcjami Szwajcarom bądź londyńczykom, rozwijając branże usługowe i produkcyjne, w których już odnosimy sukcesy. Nie da się tego zrobić bez zaawansowanych systemów komputerowego wspomagania organizacji. I właśnie w materialnym wymiarze gospodarki, w sferze wytwórczo-logistycznej, poziom owego wspomagania często powinien być nowocześniejszy i zapewniać większą konkurencyjność na międzynarodowych rynkach.

Sałatka danych

W tym miejscu przedstawiciele naszego "zagłębia" firm małych i średnich mogą być sceptyczni: czy w niewielkiej fabryce trzeba od razu instalować "dużą" informatykę? Otóż należy pamiętać, że także niewielkie przedsiębiorstwo jest częścią większej całości. Ma swoich dostawców i odbiorców, wśród których mogą być także wielkie koncerny korzystające z informatycznych standardów. Oznacza to elektroniczną wymianę dokumentów, np. rachunków, w technologii EDI (Electronic Data Interchange), elektroniczne awizowanie dostaw czy takież znakowanie i księgowanie transakcji dotyczących wyrobów. Zilustrujmy problem autentycznym przykładem.
Jedno z polskich przedsiębiorstw eksportowało, początkowo z dużym sukcesem, ogórki kiszone do Europy Zachodniej. Towar smakował klientom i dobrze się sprzedawał. Wielkie zachodnie sieci dystrybucyjne skreśliły go jednak ze swoich list zamówień. Powód? Opakowania. Obok problemów "mechanicznych" często występowały wadliwe oznakowania (standardy kodów kreskowych). Tymczasem w zautomatyzowanych magazynach każda paleta wymagająca interwencji człowieka to dodatkowy koszt. Z tego powodu polskie produkty zostały w tym przypadku częściowo wyparte z rynku przez porównywalne wyroby litewskie bądź czeskie.

Dotykamy tu kwestii śledzenia partii towaru (traceability), co jest w ogólnym przypadku procesem złożonym i wymagającym nowoczesnych systemów informatycznych. Pamiętajmy, że końcowy klient w markecie jest dziś coraz częściej "uzbrojony" w smartfonowego appsa i jednym kliknięciem może zeskanować stosowny QR-kod (Quick Response Code) wyrobu, wchodząc do potężnych baz danych i oczekując całej gamy szczegółowych informacji, które zadecydują o tym, czy towar wyląduje w koszyku.

Wspomniany kod to nie tylko klucz otwierający bazodanowe drzwi, ale także klucz do sukcesu producenta bądź dostawcy określonego wyrobu. Dziś na rybnej puszce nie wystarczy napisać, że w środku jest "sałatka z tuńczyka". Standardy MSC (Marine Stewardship Council) przewidują, że powinniśmy wiedzieć także, gdzie ryba została złowiona (obszar i podobszar FAO) oraz znać nazwę statku i portu, do którego zawinął, wraz z datą dzienną. Na internetowej animacji możemy nawet obejrzeć detale pokazujące sposób zarzucania rybackiej sieci i zapoznać się na przykład z certyfikatami gwarantującymi "metodę połowu przyjazną dla delfinów". Jednocześnie surowiec rybny staje się częścią bardziej złożonych wyrobów spożywczych, podlegających (np. alergeny) rygorom podobnym do farmacji.

Fabryka idealna

Znaczenie takich systemów informacyjnych, także dla zdrowia i życia ludzkiego, można było zobaczyć podczas ubiegłorocznej epidemii EHEC (wywołanej przez enterokrwotoczny szczep bakterii Escherichia coli umiejscowionych w kiełkach), która dotknęła kilka krajów europejskich, głównie na wskazującym Afrykę kierunku: Niemcy-Francja-Hiszpania. Problem udało się sprawnie opanować, właśnie dzięki śledzeniu partii wyrobów: od restauracji rejestrujących dane dostawców warzyw, w tym kiełków, poprzez producentów tych ostatnich, aż do źródła - wytwórców nasion w Egipcie, pogrążonym wówczas częściowo w chaosie tzw. arabskiej wiosny.

Opisywane związki dotyczą każdego produktu, podzespołu i każdej części, na przykład śrub używanych przy montażu samochodów czy składu tworzywa sztucznego, z którego powstają konsole kosmicznych satelitów. Pouczające dokumentacje katastrof lotniczych, opracowywane przez międzynarodowy zespół National Geographic, pokazują, że we współczesnej cywilizacji technicznej, gdzie "wszystko jest powiązane ze wszystkim", każdy szczegół może mieć znaczenie, a każdy ruch materii powinien mieć swój informatyczny odpowiednik w postaci skojarzonej transakcji elektronicznej.

Holoniczna całoczęściowość

Warto pamiętać, że w ciągu najbliższej dekady coraz bardziej widoczne będą przyszłościowe formy systemów wytwórczych. Należy się zatem spodziewać elastycznej i inteligentnej (smart) optymalizacji czynników produkcyjnych w otoczeniu przewidywalnym (strategie lean), nieprzewidywalnym (strategie agile) lub hybrydowym-zintegrowanym (leagile). Inna propozycja to fabryka kognitywna (cognitive factory) oraz systemy CTS (cognitive technical system), czyli połączenie mechatroniki, informatyki i kognitywistyki dla adaptacyjnego sterowania wytwarzaniem, a więc zintegrowane środki automatyki i systemów ekspertowych.

Na wzór komputerowych konfiguracji klastrowych, chmurowych (cloud) czy rozproszonych powstają produkcyjne architektury DMS (Distributed Manufacturing System), pozwalając na dynamiczne łączenie wiedzy partnerów i podsystemów organizacji dla uzyskania optimów gospodarczych. Mamy tu do czynienia z interdyscyplinarną transformacją czynników technicznych, społecznych, ekonomicznych. I wreszcie rekonfigurowalne systemy RMS/RAS (reconfigurable manufacturing/assembly system), mające umożliwiać szybkie modyfikacje struktury systemu dla adaptacji mocy i funkcji produkcyjnych w obliczu zmiennych wymagań. W praktyce można je postrzegać jako zaawansowaną formę elastycznych systemów wytwórczych FMS (Flexible Manufacturing System).

Co jest wspólne dla wymienionych rozwiązań? W opisywanych systemach w różnym stopniu implementowane są następujące cechy:
1. Sieciowość - niehierarchiczne struktury gospodarcze, w których połączenia obiektów (partnerów) są elastyczne, a więc dynamiczne.
2. Wirtualność - zastępowanie materii informacją, w szczególności przez wyizolowanie w systemie warstwy logicznej jako nadrzędnej w odniesieniu do fizycznej (wykorzystanie skojarzonej infrastruktury teleinformatycznej).
3. Samouczenie się - przetwarzanie wiedzy, a więc jej kreowanie czy modyfikowanie), w celu optymalizacji systemu, opierając się na modelach referencyjnych ładu gospodarczego (np. ITIL).
4. Bioorganizacyjność - przenoszenie ideałów biologicznych na grunt produkcyjny w sferze oprogramowania (np. algorytmy genetyczne) i zarządzania (np. bioniczne systemy wytwórcze).
5. Holoniczność - cało-częściowe (gr. holos - całość, on - część) konstruowanie systemu na podstawie autonomicznych i kooperujących ze sobą modułów korespondujących z agentami software’owymi.

W tym ostatnim przypadku mamy także do czynienia z fraktalami, a więc przyrodniczą samopowtarzalnością i samopodobieństwem, implementowanymi matematyczną rekurencyjnością dla uzyskania efektu samoorganizacji (fabryka fraktalna). Możemy zatem powiedzieć, że systemy wytwórcze będą stawać się sieciowo-wirtualnymi, samouczącymi się bioorganizacjami o charakterze holoniczno-fraktalnym.

Czy nie wystarczy już posiadanie w firmie systemu ERP? Taki system może stanowić bazodanowe centrum przedsiębiorstwa z informacjami o klientach, zleceniach i wyrobach, listami części, dokumentami dotyczącymi planowania produkcji i logistyki, danymi finansowymi, zapisami odnośnie procesów pomocniczych czy informacjami o personelu.
Istotne jest także dążenie do informatycznej infrastruktury, integrującej cztery z pozostałych modelowych poziomów "fabryki idealnej" (PP - Perfect Plant):
a) alokacja i śledzenie zasobów wytwórczych w czasie rzeczywistym - poziom MES (Manufacturing Execution System), np. przezbrojenie linii produkcyjnej dla podniesienia efektywności produkcji, harmonogramowanie minutowe, wskaźniki wydajności czy niezawodności maszyn i jakości wyrobów;
b) sterowanie całością procesów technicznych - SCADA (Supervisory Control and Data Acquisition), np. nadzorcza obsługa i obserwacja procesów z wykorzystaniem grafiki i animacji HMI (Human Machine Interface);
c) sterowniki przemysłowe - warstwa PLC (Programmable Logic Controller), np. zrobotyzowane komisjonowanie, skomputeryzowana automatyka elektromechanicznych procesów przemysłowych;
d) warstwa fizyczna centrów wytwórczych, MS (Manufacturing System) - (elastyczne) stanowiska, moduły, gniazda, linie wytwórcze.

Ponad 130 pasjonatów dwóch kółek na II Zlocie Motocyklowym Branży IT

W dniach 25-27 maja br. w Lidzbarku Welskim odbył się II Zlot Motocyklowy Branży IT.

Wzięło w nim udział ponad 130 pasjonatów dwóch kółek z branży IT, dwukrotnie więcej niż w ub.r. Computerworld po raz kolejny był patronem medialnym zlotu. Podobnie jak w ubiegłym roku organizatorzy zapewnili uczestnikom wiele atrakcji, m.in. możliwość wysłuchania relacji Roberta Czeruckiego z jego motocyklowej wyprawy do Chin, konkursy motocyklowe z nagrodami, paintball, rozgrywki siatkówki oraz strzelania, grill, koncert zespół Spoonful oraz wspólny przejazd motocyklami trasą licząca 45 km w jedną stronę. "Wspólny przejazd grupą ponad 100 maszyn jest niezapomnianym wrażeniem i ogromnie cieszy fakt, tak pozytywnego przyjęcia przez branżę IT tej inicjatywy- - mówi Krzysztof Szubert, General Manager w Connect Distribution, jeden z pomysłodawców zlotu.

Kapsztad usprawnia obsługę odbiorców energii elektrycznej

Wydział usług energetycznych Urzędu Miasta Kapsztadu wdrożył oprogramowanie SAP Advanced Metering Infrastructure Integration for Utilities.

Umożliwi ono zdalne odczytywanie liczników, dzięki czemu nie będzie już problemów z dostępem do obiektów i pomieszczeń oraz wyeliminowane zostaną błędy przy odczytach. Klienci będą otrzymywać billingi zawierające dane o rzeczywistym zużyciu energii w rozbiciu na grupy. Informacje pobierane z inteligentnych liczników będą przechowywane w systemie ujednolicania danych pomiarowych dostarczonym przez lokalną firmę Elster Kent. Oprogramowanie SAP ma umożliwić ciągłą wymianę danych referencyjnych i transakcyjnych. Dane te będą wykorzystywane w procesach: fakturowania, obsługi klienta lub analizy zużycia energii. "Oprogramowanie SAP Advanced Metering Infrastructure Integration for Utilities jest podstawą naszej inteligentnej infrastruktury pomiarowej. Będziemy mogli analizować profile zużycia energii, aby dokładniej przewidywać popyt i dostosowywać do niego podaż. Zwiększymy sprawność energetyczną, osiągając równowagę między popytem, podażą i dostawami" - powiedział Andre Stelzner, dyrektor ds. IT w Urzędzie Miasta Kapsztadu. Pierwsza faza projektu objęła dużych odbiorców komercyjnych i przemysłowych.

Biuro projektowe tańca i baletu

Jeszcze całkiem niedawno słowo "projekt" brzmiało dumnie i wzbudzało ogólny szacunek. Wykonywano projekty maszyn, urządzeń, konstrukcji różnego typu, w tym także architektoniczne. Dzisiaj pojęcie projektu mocno się spauperyzowało, przechodząc związaną z tym dewaluację.

Dla kadrowego pozyskanie pracownika na dane stanowisko to już projekt. Przeprowadzenie cyklu szkoleń to także projekt. Do miana projektu awansowały tak prozaiczne czynności, jak: uszycie kiecki, strzyżenie (przepraszam, stylizacja) włosów czy przygotowanie lepszej strawy. Coś, co zawsze musiało spełniać określony reżim twórczy, być logiczną i obliczalną całością wymagającą zatrudnienia do tego tęgich umysłów i specjalistów dziedzinowych, zostało sprowadzone do poziomu rzemiosła dnia codziennego aspirującego do bycia sztuką. Czekać tylko, aż wyjście modelki na wybieg zacznie nazywać się projektem przeżycia, a taniec projektem krzyku duszy. Ludziom chyba mylą się projekcje własnej wyobraźni z projektami godnymi inżynierów.

Dzisiaj Lokalny Informatyk miał do zrealizowania szereg istotnych projektów. Pierwszym z nich miał być projekt wsparcia. Otóż od dłuższego czasu regał na książki w jego pokoju tego wymagał, gdyż niepokojąco się kiwał. Okazało się, że jedna z podkładek się ukruszyła, co spowodowało różnicę poziomów, i to znaczną. Aby zapobiec jakiemuś nieszczęściu, postanowił do sprawy podejść z inżynierskim zacięciem i problem rozwiązać.

Stwierdził, że najlepsza byłaby podkładka z kartonu odpowiedniej grubości. Popatrzył na zestaw książek zalegających na półkach i szukał jakiejś w twardej oprawie. Można się już w tej chwili domyślić, co mu chodziło po głowie. Niemniej żal mu było poświęcić literaturę fachową, bo z niej korzystał, a ponadto była ona wydawana raczej w mało atrakcyjnej formie. Nagle wzrok jego padł na książki, które przytargał z domu. Nie były to pozycje fachowe, ale takie, na które brakło miejsca w mieszkaniu, bo nie były zbyt interesujące. Posłużył się projektem wieszcza, dziełem, które jakoś nigdy nie było w stanie pokrzepić jego serca, poczynając od czasów szkoły średniej. Jednak ze względu na szatę edycyjną szkoda było je wyrzucić. Tak więc książka, dzięki swej twardej okładce, której została w tym momencie pozbawiona, znalazła zastosowanie.

Mógł więc teraz Lokalny spokojnie przystąpić do realizacji następnego projektu tego dnia, czyli wykonania kopii zapasowych baz danych. Jak widać, projekty informatyki zakładowej dotrzymują kroku ogólnym tendencjom i też bywają coraz mniej ambitne.

Mobilna obsługa magazynu w Comitor

Firma Comitor, polski importer i dystrybutor wyposażenia kuchennego niemieckiej marki Blanco, zakończyła uruchamianie mobilnej obsługi magazynu w ramach systemu Impuls 5.

Oprogramowanie uzupełnia funkcjonujące w firmie moduły: finansowo-księgowy, kadrowo-płacowy, gospodarki materiałowej, środków trwałych i dystrybucji. Głównym celem wdrożenia systemu było usprawnienie procesów logistycznych. Wyeliminowano błędy w wyszukiwaniu towarów w magazynie, skrócono czas wyszukiwania pozycji zamówienia. Zoptymalizowano procedury związane z przyjęciem towaru do magazynu. "Część sprzedaży realizujemy poprzez sklepy internetowe. Największe funkcjonują na bazie bardzo zaawansowanych technologii IT. Współpraca bez zastosowania kodów kreskowych nie byłaby możliwa. Nasze plany, związane z podjęciem współpracy z największą siecią hipermarketów budowlanych, stają się realne dzięki spełnianiu wymogów związanych z identyfikacją towarów" - podkreśla Jerzy Wroński, prezes zarządu Comitor.

sobota, 23 czerwca 2012

COIG zapewni obsługę informatyczną Kompanii Węglowej

Kompania Węglowa podpisała umowę z Centralnym Ośrodkiem Informatyki Górnictwa (COIG) na obsługę informatyczną.

COIG będzie się zajmował obsługą systemu zarządzania przedsiębiorstwem. Kontrakt obejmuje m.in. zabezpieczenie dostępu do kodów źródłowych, określa prawa dostępu do danych, opisuje parametry jakościowe prowadzonych działań wraz z mechanizmem obniżenia ceny w przypadku niespełnienia warunków. Wartość kontraktu zawartego na cztery lata wynosi ponad 101 mln zł.

EN FACE: Marcin Borecki...

... twórca start-upu PlaceChallenge, który pozyskał 200 tys. USD od hiszpańskiego funduszu Mola

O PLACECHALLENGE

Ludzie chcą grać, rywalizować, współzawodniczyć nawet o wirtualne trofea. PlaceChallenge to platforma do rozgrywania gier za pomocą telefonu komórkowego i geolokalizacji. Chcemy odciągnąć ludzi od biurek i zachęcić ich do zabawy w mieście, poprawiającej kondycję fizyczną. Sam przed laty jako harcerz byłem animatorem wielu takich gier. Wyznaczony cel powoduje, że bieganie sprawia frajdę, a dystans nie stanowi problemu. Opracowaliśmy dwa scenariusze: gonitwy za wirtualnym żetonem, który odbiera się poprzez zbliżenie na 50 metrów do posiadającego go gracza, oraz "gry w węża", polegającej na odcięciu drogi drugiej grupie graczy. Zbudowaliśmy platformę, która może być wykorzystana komercyjnie przez firmy do tworzenia, zarządzania, uruchamiania gier dla klientów czy użytkowników. Gra, wysiłek fizyczny wzmacniają więź z marką. Aspekt poprawy stanu zdrowia był jednym z ważniejszych powodów zainteresowania amerykańskich inwestorów.

O KONKURSACH DLA START-UPÓW

Zdecydowanie rekomenduję udział w konkursach dla start-upów. To doskonała okazja, aby skonfrontować swój pomysł na szerszym forum. Najlepsze doświadczenia mamy z imprezami z cyklu Startup Weekend, podczas pierwszej edycji zdobyliśmy nagrodę publiczności. To dało nam dodatkowy zastrzyk energii do dalszego działania. Takie spotkania to szansa, aby zrobić wokół swojego projektu szum, zwłaszcza jeżeli nie ma się środków na promocję czy marketing. To także szansa na nawiązanie kontaktów, które okazują się niezbędne. Trzeba pamiętać, że od występu w konkursie do powstania gotowego produktu jeszcze droga daleka. Najpierw potrzebny będzie inwestor.

O POLSKICH INWESTORACH

Zdecydowanie odradzam próby pozyskania pieniędzy z funduszy unijnych, m.in. w działaniu 3.1. Ogrom biurokracji potrafi odebrać chęć do dalszego działania. Dodatkowo trzeba oddać do połowy udziałów w firmie. A wówczas motywacja nie jest już taka sama. Zanim zwrócimy się do inwestora, warto sięgnąć po pomoc mentora. Wzięliśmy udział w dwudniowym szkoleniu w Innovation Nest. Dzięki niemu z chaosu wyłoniła się uporządkowana wizja projektu. Dopiero w tym momencie warto rozpocząć poszukiwania funduszu. Przez kilka miesięcy odwiedziliśmy ich kilkanaście - bez efektu. Nasz projekt, który nie ma amerykańskiego odpowiednika z opisanym już sukcesem rynkowym, okazał się zbyt ryzykowną inwestycją dla polskich funduszy. Wystarczy spojrzeć, ile polskich serwisów zakupów grupowych zyskało dofinansowanie. Ja tę ostrożność rozumiem i szanuję. Polscy inwestorzy nie dysponują tak dużymi kwotami jak zagraniczni, którzy poszukują start-upów. Angażują się kapitałowo, ale to dla nich bardziej lokata niż inwestycja. Pieniądze należą do aktorów, bankierów, deweloperów budowlanych - oni oczekują pewnego zwrotu z inwestycji. Choć obiecują globalny sukces, nie mają takich środków. Nie ma wśród nich człowieka, który na IT zrobił fortunę i był gotów wspierać młodych. Po fiasku rozmów w Polsce podjęliśmy szaloną decyzję o podróży do Stanów Zjednoczonych.

O AMERYKAŃSKICH INWESTORACH

Dysponują miliardami dolarów. Mogą zainwestować w pięć bardzo podobnych projektów. Wychodzą z założenia, że rozwinie się ten najlepiej przygotowany i on zyska kolejne rundy dofinansowania. Aktywnie poszukują start-upów. Setkami przychodzą na konkursy poświęcone start-upom. Nawet w krótkiej rozmowie potrafią rzucić kilka pozytywnych uwag. Jednak stawiają warunek: inwestujemy w firmy zarejestrowane w USA. Dlatego po powrocie zarejestrowaliśmy firmę w Stanach Zjednoczonych. Taki ruch rekomenduję każdemu, kto poważnie myśli o rozwinięciu swojego start-upu. Po powrocie odezwałem się do przedstawiciela funduszu Mola, którego poznaliśmy w Krzemowej Dolinie, w Blackbox - domu dla start-upów. Pamiętał, że pracowaliśmy przy projekcie po 20 godzin na dobę. Decyzja zapadła w dwa dni. Dokumenty wymieniliśmy kurierem. Rzecz nie do wyobrażenia w polskich realiach, które poznaliśmy aż nazbyt dobrze.

O DRODZE DO SUKCESU

Fundusz Mola zainwestował w nas 200 tys. USD. To jeden z lepszych wyników w polskiej historii start-upów. Otwieramy oddział w Lublinie, gdzie zatrudniamy programistów, którzy przygotowują nowe wersje PlaceChallenge. Mamy beta testerów w USA. Niewykluczone, że przeniesiemy się tam na czas osiągnięcia 100 tys. aktywnych graczy na naszej platformie. Będziemy ich szukać na amerykańskich uczelniach. Kiedy ten cel zostanie osiągnięty, rozpoczniemy komercjalizację platformy. Nasze doświadczenie pokazuje, że niezbędna jest silna determinacja. Rada dla innych: jeżeli wyrzucą was za drzwi, wchodźcie oknem. Szukajcie niestandardowych rozwiązań, pytajcie i rozmawiajcie z ludźmi. Brak finansów nie powinien stanowić bariery. Nam bardzo pomogła firma Microsoft, udostępniając w ramach programu BizSpark infrastrukturę w chmurze oraz niezbędne narzędzia i oprogramowanie za darmo. I na koniec: nie zniechęcajcie się, jeżeli polskie fundusze wam odmawiają, zwlekają z decyzją. To nie oznacza, że wasz pomysł jest zły. Do polskich funduszy mam apel: młodym przedsiębiorcom jasno tłumaczcie powody odmowy, inaczej szybko odechce im się tak potrzebnych innowacji.

Oracle uruchamia usługi oparte na platformie Oracle Public Cloud

Do oferty amerykańskiego koncernu trafiły pierwsze usługi bazujące na środowisku, które posadowiono na farmie serwerów Exadata i Exalogic. W ramach środowiska Oracle Public Cloud oferowana będzie ponad setka aplikacji biznesowych.

Poszczególne rozwiązania tworzyć będą wyspecjalizowane pakiety rozwiązań wspierających m.in. zarządzanie kapitałem ludzkim, relacjami z klientami, sprzedażą i marketingiem oraz obsługą klienta. Opłaty za korzystanie z rozwiązań opartych na środowisku Oracle Public Cloud będą rozliczane na zasadach abonamentu.

Wydajność i dostęp

O obecnych i przyszłych rozwiązaniach składowania danych rozmawiamy z dr. Josephem Regerem, CTO firmy Fujitsu Technology Solutions.


Czym, oprócz wydajności, mogą różnić się macierze dyskowe różnych producentów?


Najinteligentniejszą częścią macierzy jest kontroler dyskowy. To on decyduje, w jaki sposób zasoby są składowane na dyskach macierzy. Zatem wszyscy dostawcy implementują logikę wbudowaną w kontrolery. Podstawową różnicą jest sposób implementacji. Można stosować osobne podejścia zależnie od skali urządzenia albo implementować tę samą technologię w urządzeniach o różnej skali. Fujitsu wybiera drugi model, między innymi dlatego, że umożliwia łatwe dla klientów skalowanie. Dzięki temu unika się całkowitej wymiany urządzenia w procesie nazywanym "forklift upgrade". Raczej modernizuje się kontrolery. Półki dyskowe i inne urządzenia pozostają bez zmian.


W jakim kierunku podąża rozwój urządzeń storage?
Oprócz wzrostu szybkości i wydajności możemy zauważyć powrót do starej idei, pochodzącej jeszcze z epoki komputerów mainframe. Polega ona na przeniesieniu części obciążenia z głównych procesorów do kontrolerów storage, by odciążyć procesory w wykonywaniu procesów związanych z przetwarzaniem danych. W środowiskach o wysokim stopniu rozproszenia technologia daje bardzo dobre wyniki. Pojawiają się bazy danych w całości operujące w pamięci operacyjnej (na przykład SAP HANA) i moduły SSD podłączane bezpośrednio do serwerów jako część adresowalnej pamięci. Przy tych rozwiązaniach urządzenia storage muszą działać inaczej, gdyż podział między częścią storage a bazą danych zaczyna się zacierać.


Tylko 5-10% danych jest w ciągłym obiegu, a ponad połowa zupełnie leży odłogiem. Co zmieni się w przyszłości?
Niewiele. Nadal niewielka część informacji będzie przetwarzana z wysoką intensywnością. Mniej używane porcje danych można będzie przenieść nawet na taśmy. Technologia jest już dostępna. Nasze urządzenie Eternus CS zachowuje się jak uniwersalny zasób składowania danych i tworzy warstwę wirtualizacyjną, przenosząc dane na właściwe media zależnie od częstości ich przetwarzania. W odróżnieniu od typowych macierzy blokowych, które rozmieszczają bloki między warstwy storage’u, to urządzenie ma także interfejs w postaci systemu plików. Pliki bardzo rzadko wykorzystywane mogą być przeniesione na taśmę, przy czym informacja zapisywana jest na streamer w sposób sekwencyjny, przyspieszając odtwarzanie w miarę potrzeby. Zasoby taśmowe są dostępne jako wirtualna biblioteka taśmowa dla całej sieci. Urządzenie przeprowadza deduplikację danych w locie, tworząc katalog zapisywanych informacji.

Na konferencji, która odbyła się 31 maja 2012r, przedstawione zostały najciekawsze rozwiązania oferowane przez Fujitsu. Oprócz informacji związanych z dostępną technologią tej firmy zaprezentowano projekt migracji środowiska backupowego grupy kapitałowej Telekomunikacji Polskiej, w którym kluczową rolę odegrały rozwiązania tej firmy. Podczas wystaw i sesji zaprezentowano najnowsze serwery z serii Primergy serii RX (stelażowe) oraz TX (w obudowie tower lub 19 cali rack), a także wysoko skalowalne serwery serii CX1000. Przykładowym zaprezentowanym serwerem był PRIMERGY RX300S6, wyposażony w dwa procesory Intel Xeon X5690 po sześć rdzeni każdy.

Oprócz serwerów zaprezentowano także rozwiązania składowania informacji, w tym urządzenie ETERNUS CS800 wykorzystujące zaawansowaną deduplikację oraz replikację między środowiskami. Urządzenie to umożliwia realizowanie w praktyce strategii odkładania nieużywanych porcji informacji na nośniki o niższym koszcie przechowywania, przywołując je w miarę potrzeb.


Częścią prezentacji były także miniaturowe komputery desktopowe i bardzo wydajne stacje robocze wyposażone w najnowsze procesory Intela. Miniaturowe komputery desktopowe przeznaczone są do typowej pracy biurowej, charakteryzują się niewielkim poborem mocy i bardzo kompaktowymi rozmiarami, z kolei silne stacje robocze umożliwiają przeprowadzanie zaawansowanych obliczeń i pracę na przykład nad obiektami trójwymiarowymi.


Sprawne zarządzanie informatyką w Kredyt Banku

W ciągu trzech miesięcy Kredyt Bank dokonał standaryzacji w zakresie narzędzi do zarządzania pulą 5,5 tys. stacji roboczych w całej organizacji.

Dzięki wdrożeniu rozwiązania System Center Configuration Manager firmy Microsoft, udało się usprawnić pracę działu IT i zapewnić większą przejrzystość w zarządzaniu zasobami IT. Dokonano centralizacji zarządzania zasobami informatycznymi z jednym serwerem centralnym i punktem dostępowym do zarządzania środowiskiem. Zasoby w 370 oddziałach terenowych zostały podłączone do punktu zarządzania w centrali banku. Wprowadzone rozwiązanie umożliwiło szybką inwentaryzację dysków, urządzeń i programów oraz dostęp do informacji, kto w jakim zakresie korzysta z danej stacji. Na każdym komputerze zainstalowano "agenta" SCCM, który wykonuje inwentaryzację stacji roboczych. Dzięki temu administrator wie, na których komputerach należy przeprowadzić wymagane działania i może zlecić je w sposób zdalny. Dział IT dysponuje informacjami, który pracownik korzysta z danego komputera i jakie są parametry sprzętu, kontroluje bezpieczeństwo danych, może szybciej rozwiązać problemy użytkowników. Dzięki temu pracownicy IT mogą być bardziej zaangażowani w projekty o strategicznym znaczeniu dla organizacji.

Analogowy tygrys, biurokratyczny smog

Na rozwój Polski Cyfrowej w latach 2007-2013 przeznaczono 6 mld euro. W perspektywie finansowej 2014-2020 mówi się o podobnej kwocie. Jak wydaliśmy fundusze i czy nowe wydamy z głową?

Od ustanowienia nowego działu administracji rządowej - informatyzacji - 1 lipca br. minie 10 lat. Wydaje się, że to wystarczający okres, aby administracja pozbyła się analogowych przyzwyczajeń. Nic z tego! Kult papieru i pieczątki trwa. Tymczasem po to wydajemy 6 mld euro ze środków unijnych, aby państwo zbliżyć do obywateli. Ci zaś żyją w świecie cyfrowym. Co prawda, mają sporadyczne kontakty z analogową administracją, a jej decyzje wpływają na ich życie codzienne.

Rola cyfryzacji w Polsce

ma zostać przekazane w nowej perspektywie unijnej 2014-2020 na sektor ICT w ramach specjalnego funduszu infrastrukturalnego.
"Stopień cyfryzacji danego kraju oceniamy według powszechności, cen, niezawodności, szybkości, użyteczności i umiejętności użytkownika" - powiedziała podczas odbywającej się w Gdańsku XVI Konferencji "Miasta w Internecie" Anna Krzyżanowska, reprezentująca Dyrekcję Generalną "Connect" odpowiadającą za społeczeństwo informacyjne i media w Komisji Europejskiej. Jej zdaniem, czynnikami sukcesu w cyfryzacji są: priorytet narodowy; skoordynowane, zintegrowane zarządzanie; wielowymiarowe, kompleksowe podejście; konkurencyjność i popyt. Niestety, w Polsce tylko nieliczni politycy doceniają rolę cyfryzacji.

Koordynację miał zapewniać Komitet Rady Ministrów ds. Łączności i Informatyzacji, zastąpiony przez Komitet Cyfryzacji. Dominuje podejście techniczne, brakuje też systemu wprowadzenia udoskonaleń. Gdyby było inaczej, państwo przestałoby nas zmuszać co roku do wysyłania deklaracji PIT. Skoro system IT Ministerstwa Finansów odnotowuje wszystkie nasze przychody, to powinniśmy dostawać e-mail z linkiem do strony internetowej, za której pośrednictwem możemy potwierdzić lub zmodyfikować swoją deklarację PIT.

e-administracja to nie procedury, lecz procesy

Jakie jest rozwiązanie? "Dajmy ludziom narzędzia, informacje. Przestrzegajmy zasad interoperacyjności. Podmiotem działania musi być obywatel" - stwierdził w Gdańsku Wiesław Paluszyński, prezes zarządu Trusted Information Consulting. Tymczasem wszystkie strategie informatyzacji są nastawione na spełnienie procedur urzędniczych. Pomijają proces społeczny. Jeśli system IT okazuje się sukcesem, to taki, który liczy się z rzeczywistymi potrzebami obywateli. Wśród nich są: Centralna Ewidencja Działalności Gospodarczej (Ministerstwo Gospodarki), rejestry sądowe, takie jak Krajowy Rejestr Sądowy oraz Nowa Księga Wieczysta (Ministerstwo Sprawiedliwości) i mimo wszystko - e-deklaracje (Ministerstwo Finansów).

Porażką jest e-PUAP, pomimo ogromnego potencjału, który w sobie kryje. Uczestnicy XVI Konferencji "Miasta w Internecie" musieli przyjąć za dobrą monetę zapewnienia przedstawicieli rządu, że wprowadzenie obligatoryjnego korzystania z platformy przez urzędy zmieni sytuację. Na razie ludzie głosują nogami. Przez internet w tym roku rozliczyło się 2,1 mln podatników! Profil zaufany na e-PUAP ma tylko nieco ponad 52 tys. obywateli.

Rozliczający się z fiskusem postępują zgodnie z zasadą: "Nie należy mnożyć bytów ponad potrzebę" zwaną inaczej brzytwą Ockhama. Nie należy wprowadzać nowych pojęć i założeń, jeśli nie ma się mocnych podstaw. Najprostsze rozwiązania teoretyczne, przyjmujące najmniejszą liczbę założeń, uważane są za najlepsze. Gdyby tak było w modernizacji państwa za pomocą teleinformatyki, zastanawialibyśmy się, jak zmienić prawo, aby pozbyć się biurokratycznego smogu, który zatruwa życie. Dopiero potem myślelibyśmy, czy inwestować w narzędzia IT, w tym w e-PUAP. Czas na architekturę korporacyjną państwa, opisującą w kolejności jego funkcje, procesy i architekturę informatyczną.

Nowe priorytety a wydatki na IT

Być może problemem jest nadmiar pieniędzy… na teleinformatykę. To zwalnia z myślenia. Wciąż ważniejsza jest techniczna strona projektów niż ich znaczenie dla usprawnienia państwa. Ciekawe, czy to się zmieni przy programowaniu projektów pod kątem nowego budżetu UE na lata 2014-2020?

Komisja Europejska uznała za priorytety wzrost gospodarczy i tworzenie miejsc pracy. Większość wydatków budżetowych podporządkuje się tym priorytetom i realizacji strategii Europa 2020. Wzrost gospodarczy ma być oparty m.in. na wiedzy i na innowacjach. W tym celu ma powstać specjalny fundusz infrastrukturalny w wysokości 40 mld euro na transgraniczne projekty w dziedzinie transportu, energetyki i ICT. Zastąpi on fundusz transportowy, który obecnie dysponuje środkami w wysokości 8 mld euro. "W efekcie 9,2 mld euro ma być skierowane do sektora energetycznego, 31,6 mld euro na transport i 9,1 mld euro na sektor ICT" - powiedział podczas konferencji "Miasta w Internecie" Jerzy Kwieciński, prezes Europejskiego Centrum Przedsiębiorczości.

Sama Komisja ocenia, że ogółem w sektorze ICT potrzebne jest 250 mld euro. Nasuwa się pytanie: które projekty będą finansowane? W ramach funduszu infrastrukturalnego będą oczywiście dodatkowe środki, ale wybór projektów nastąpi w drodze konkursu na poziomie unijnym. Na co postawić? Na tzw. ostatnią milę czy na projekty rządowe i samorządowe? A może aplikować o wsparcie na platformy informatyczne dla firm? Czy zainwestować w projekty badawczo-rozwojowe lub szkolenia?

Jeśli nie przygotujemy rozsądnych planów, wciąż pozostaniemy analogowym tygrysem zagubionym w biurokratycznym smogu.

Ciekawostki Fotografia Ogłoszenia towarzyskie Cycki Reklama Zbiornik Artykuły biurowe