Mirosław Hermaszewski - pierwszy i jedyny Polak, który odbył lot w kosmos; Jacek Żakowski - jeden najbardziej znanych polskich dziennikarzy, Jan Olbrycht - Poseł do Parlamentu Europejskiego; Mateusz Tułecki - Człowiek Roku Polskiego Internetu 2010 oraz wielu innych gościło w Wyższej Szkole Biznesu w Dąbrowie Górniczej w ramach VII Festiwalu Nauki.
Festiwal Nauki to cykliczne przedsięwzięcie popularno - naukowe, którego celem jest przede wszystkim promocja nauki. „Organizując VII Festiwal Nauki chcemy w przystępny sposób ukazać przydatność wiedzy, zademonstrować praktyczne korzyści, jakie możemy uzyskać dzięki jej rozwojowi. Pragniemy dotrzeć do jak najszerszego grona odbiorców: dzieci, młodzieży, a także zainteresować nauką tych, którzy do tej pory nie mieli z nią wiele wspólnego. Festiwal Nauki jest okazją do podzielenia się wiedzą, odkryciami naukowymi, najnowszymi wynikami badań polskich i zagranicznych naukowców z jego uczestnikami. W ramach 7 Festiwalu Nauki nawiązaliśmy współpracę z Radą Upowszechniania Nauki przy Polskiej Akademii Nauk, którą kieruje prof. Magdalena Fikus. Dzięki temu gościliśmy w Uczelni znamienite osobowości: dr Patrycję Dołowy, prof. Magdalenę Fikus, prof. Jacka Henniga, prof. Pawła Rowińskiego oraz dr Krzysztofa Michalskiego" - mówi Rektor Wyższej Szkoły Biznesu w Dąbrowie Górniczej - prof. nadzw. dr Zdzisława Dacko - Pikiewicz.
W ramach 7 dni VII edycji tego przedsięwzięcia dyskutowano m.in. o inicjatywach społecznych na portalach społecznościowych, polskiej prezydencji w Unii Europejskiej. Tematyka wykładów, warsztatów i pokazów jak zawsze była bardzo szeroka, m.in.: informatyka śledcza, sztuczna inteligencja, biotechnologia, szybkie samochody takie jak formuła 1, kulturoznawstwo, genetyka, religie świata, chemia, fizyka, zmiany klimatu i ekstrema pogodowe. Wśród najciekawszych tematów wykładów m.in.: Czy przy towarzyskiej grze można się również nauczyć strategicznego myślenia - czyli co nam daje gra GO?; Japonia - prawdy i mity o kraju kwitnącej wiśni - wykład połączony z pokazem aikido iaijutsu(szermierka japońska), prezentowanym przez Aikido Kumura Dojo (po wykładzie degustacja sushii), Ciężar nieważkości. Opowieść pilota-kosmonauty; Nowa Gwinea - wojowników raj utracony; Genetyczne człowieczeństwo; Krótki przewodnik do oznaczania bóstw indyjskich - elementy ikonografii hinduizmu, buddyzmu, dżajnizmu i sikhizmu; Czy gry komputerowe myślą?; Współczesne zmiany klimatu i ekstrema pogodowe; Problemy aerodynamiczne szybkich samochodów - wykład połączony z pokazem pojazdu eksperymentalnego przeznaczonego do jazdy w konkurencji minimalnego zużycia paliwa.
Inauguracja VII Festiwalu Nauki odbyła się 21 marca o godz. 11.00. W ramach inauguracji miała miejsce debata na temat końca świata pt. "Armagedon, Antychryst, Apokatastaza - czy czeka nas koniec świata". O naukowych wyjaśnieniach teorii głoszących apokalipsę dyskutowali prof. Wojciech Szczerba, dr Antoni Winiarski, dr Wojciech Borczyk, dr Paweł Ćwikła, dr Andrzej Górny. Debatę poprowadził dziennikarz naukowy dr Tomasz Rożek.
W ramach VII Festiwalu Nauki uczestnicy w warsztatach, m.in. na temat budowania poczucia własnej wartości, motywacji, bycia liderem a także dziennikarskich i fotograficznych. Wrażenia artystyczne i duchowe zapewniły zaplanowane w ramach inicjatywy koncerty, galerie, pokazy, zajęcia sportowe.
21-27 marca 2011 r.
Temat wykładu z 25 marca 2011 r.
Kroll Ontrack, Paweł Odor
Sabotaż, kradzież firmowych dokumentów, nielegalne kopiowanie danych bądź wykorzystanie komputerów do lobbingu i molestowania seksualnego to tylko niektóre z praktyk, jakich coraz częściej dopuszczają się przestępcy komputerowi na świecie. Niestety, także w Polsce, nieuczciwe działania kryminalne z wykorzystaniem komputerów bądź innych urządzeń elektronicznych są coraz częstszym zjawiskiem. W jaki sposób ujawnić nielegalne praktyki i ścigać przestępców wykorzystujących technologie IT? Rozwiązaniem jest mało jeszcze znana w Polsce informatyka śledcza.
Odkąd wiele danych elektronicznych ma strategiczne znaczenie dla swoich właścicieli, ich wartość stale rośnie. Zdarza się, że strategiczne dane zostają wykradane lub celowo wykasowywane. Elektroniczni detektywi, czyli specjaliści informatyki śledczej, korzystając z najnowszych osiągnięć technologicznych i zaawansowanej wiedzy w zakresie odzyskiwania danych, dostarczają elektroniczne środki dowodowe, zabezpieczone w taki sposób, aby były wiarygodne dla sądu. Każdego dnia na zlecenie firm i służb mundurowych śledzą oni nieuczciwych kontrahentów, nielojalnych pracowników oraz przestępców komputerowych działających w sieci.
Czym jest informatyka śledcza?
Informatyka śledcza (ang. Computer Forensics) polega na dostarczeniu elektronicznych środków dowodowych dla firm, instytucji bądź osób prywatnych, które wykorzystywane zostaną następnie przez odpowiednie organa prawne. Jest to więc zespół działań i czynności specjalistów, które polegają na zabezpieczeniu, przeszukiwaniu i wykrywaniu dowodów nadużyć i przestępstw dokonanych z użyciem komputera lub innych urządzeń elektronicznych. Poprzez Computer Forensics możemy więc odtworzyć kolejność zdarzeń użytkownika urządzenia elektronicznego w czasie (i odpowiedzieć na pytania: kto? co? gdzie? kiedy? jak?), działając na podstawie informacji niedostępnych dla użytkowników i administratorów systemu.
By w pełni zrozumieć, czym zajmuje się informatyka śledcza, konieczne jest wcześniejsze zapoznanie się z procesem zapisywania danych w naszych komputerach. Generują one bowiem znacznie więcej informacji, niż zdajemy sobie z tego sprawę, przy czym wiele z nich wymaganych jest do prawidłowej pracy systemu i nie są one dostępne dla użytkowników. Dotyczy to np. metadanych, a więc informacji opisujących zapisane dane, których interpretacja wymaga odpowiedniej wiedzy i doświadczenia. Pozostałe dane spoczywają w różnych obszarach nośników danych w postaci logów, rejestrów i ukrytych plików systemowych. Oczywiście, w kontekście rozwoju technologii mobilnych, należy wspomnieć także o analizie telefonów komórkowych (ang. Mobile Forensics), których pamięci coraz częściej zawierają istotne dla naszych firm dokumenty.
Najpopularniejszymi nośnikami dowodów elektronicznych, trafiającymi do 32-óch laboratoriów firmy Kroll Ontrack, są dyski twarde komputerów osobistych (61,5 procent), serwery (20 procent - w tym serwery pocztowe - 7 procent oraz pozostałe serwery - np. zapisujące dane z kamer monitorujących ulice - 13 procent), notatniki elektroniczne (3 procent), pamięci przenośne (11 procent) oraz telefony (2,5 procent). Większość serwerów trafia do ekspertyzy wraz z kopiami bezpieczeństwa.
Informatyka śledcza najbardziej rozwinięta jest w USA i krajach Europy Zachodniej. Zastosowanie dowodów elektronicznych jest powszechną praktyką stosowaną w przedsiębiorstwach. W tym przypadku mamy do czynienia z wysoką świadomością firm. Typowym działaniem w korporacjach działających w krajach najbardziej rozwiniętych, jest m.in. zabezpieczanie danych z komputera pracownika, który zmienia pracę. Takie działanie ma na celu zabezpieczenie interesów obu stron, pracownika i firmy. Określa stan faktyczny w momencie zakończenia współpracy pracownika z firmą oraz wiarygodnie dokumentuje jego działania na rzecz organizacji.
W zdecydowanej większości przypadków działania z zakresu informatyki śledczej przeprowadzane są przez zewnętrznych ekspertów. Jest to szczególnie istotne w USA, gdzie każde działanie musi być możliwie najbardziej obiektywne. Rozwiązania amerykańskie często bywają wzorem dla działań z zakresu informatyki śledczej w innych krajach, oczywiście z uwzględnieniem uwarunkowań prawnych danego kraju.
Proces informatyki śledczej
Proces informatyki śledczej składa się z pięciu etapów: zbierania informacji, wyliczenia sumy kontrolnej, odzyskania danych, ich analizy oraz stworzenia raportu z przeprowadzonych działań.
Zgromadzenie dowodów polega m.in. na zabezpieczeniu nośników danych i stworzeniu dwóch kopii każdego nośnika, na której to kopii pracują informatycy śledczy, szukając dowodów winy podejrzanego. Każdy z etapów pracy musi być udokumentowany tak, aby przedstawiony materiał nie utracił wartości dowodowej, dlatego też tak istotna jest tutaj obecność profesjonalistów korzystających z najnowocześniejszych narzędzi.
Wynikiem pracy specjalistów Computer Forensics jest szczegółowy raport, zawierający informacje o odnalezionych danych, istotnych dla prowadzonej sprawy. Elementem raportu powinno być także osadzenie w czasie kluczowych zdarzeń. Jako że treść raportu musi być ściśle skorelowana ze sprawą, konieczna jest bliska współpraca specjalistów w laboratorium z osobami prowadzącymi sprawę. Elementem współpracy laboratorium informatyki śledczej i klienta jest także przedstawianie wyników prac w sądzie. Informatycy śledczy przywołani przez prokuratora i sądy dla wydania opinii prezentują materiał dowodowy jako tzw. biegli ad-hoc. Pomimo faktu, że nie wszystkie sprawy trafiają na wokandę, wszystkie czynności w ramach procesu informatyki śledczej muszą być prowadzone w taki sposób, aby wartość dowodowa zgromadzonego materiału była niepodważalna. Na świecie tylko około 20 procent spraw prowadzonych przez specjalistów informatyki śledczej ma swój finał w sądzie. Często potrzebne są jedynie np. dowody winy pracownika pozwalające pracodawcy na uszczelnienie systemu dostępu do informacji.
W kryzysie i nie tylko...
Działania informatyków śledczych są szczególnie istotne w okresach, w których nasilają się zwolnienia w różnych sektorach gospodarki. Przykładem takiego okresu jest choćby ostatni światowy kryzys, który odcisnął swe piętno na niemal każdej branży. Podczas gdy każdego dnia liczba zwalnianych pracowników rosła, firmy pozbawione zabezpieczeń stanęły w obliczu utraty swych kluczowych zasobów. Dodatkowym problemem stało się także ryzyko nadużyć, które popełniali pracownicy, których wynagrodzenia zostały znacząco zmniejszone. Światowy kryzys jest tylko przykładem, lecz podobnie dzieje się w przypadku, gdy problemy dotykają pojedynczą firmę, która przechodzi tymczasowe problemy finansowe lub kadrowe. W takich przypadkach przedsiębiorstwa narażone są nie tylko na utratę swych środków, lecz także budowanego przez lata wizerunku.
Na przestrzeni ostatnich lat specjaliści Kroll Ontrack odnotowali także nasilenie zachowań w zakresie kradzieży własności intelektualnej - technologii, autorskich rozwiązań, strategii czy planów - jak i działań związanych ze szpiegostwem przemysłowym, przejmowaniem doświadczonych pracowników czy powstaniem układów gospodarczych łamiących prawo. Co jednak ciekawe, nawet w okresie dobrej koniunktury sama tylko wzmianka o nadużyciach w firmie powoduje spadek wartości jej akcji. Oczywiście w przypadku kryzysu spadek ten może przyjmować zdecydowanie większe wartości.
Wybrane najciekawsze i najpoważniejsze przypadki działań informatyków śledczych w Polsce:
Dysk Aleksandry Jakubowskiej i dyski wykradzione z MSZ
Do końca lat dziewięćdziesiątych świadomość istnienia informatyki śledczej była w Polsce niemalże zerowa. Zmiany nastąpiły dopiero wtedy, gdy działania związane z informatyką śledczą (ang. computer forensics) stały się udziałem głośnych medialnie spraw, jak np. afera Rywina czy wykradzenie dysków z Ministerstwa Spraw Zagranicznych.
Jednocześnie wydarzenia te pokazały, jak istotna może okazać się praca specjalistów takich firm, jak m.in. Kroll Ontrack. W roku 2002 rozpoczęło się śledztwo związane z tzw. aferą Rywina. Jednym z kluczowych dla śledztwa działań było odzyskanie wiadomości pocztowych ze sformatowanego dysku minister Aleksandry Jakubowskiej. Znajdowały się na nim dowody pozwalające prokuraturze na ustalenie przebiegu wydarzeń w jednym z wątków afery korupcyjnej.
Sprawa gdańskiej gimnazjalistki
Działania związane z informatyką śledczą nie dotyczą jedynie danych zamieszczonych na dyskach twardych komputerów, ale również na takich urządzeniach, jak pamięci flash, bądź telefony komórkowe.
W związku ze zwiększającą się liczbą funkcji i pojemności telefonów komórkowych, dane z nich pochodzące mogą stać się cennym źródłem dowodowym, wykorzystywanym w informatyce śledczej. Jednym z takich przypadków była udana próba odzyskania filmu, zapisanego na telefonie komórkowym jednego z gdańskich uczniów w roku 2006.
Film ten był zapisem napastowania jednej z gimnazjalistek przez grupę jej kolegów, w tym chłopca nagrywającego to zdarzenie, podczas lekcji w szkole. Nagranie to zostało następnie opublikowane w Internecie, co mogło doprowadzić do samobójczej śmierci dziewczynki.
Po tym zdarzeniu i rozgłosie, jaki został mu nadany w mediach, chłopcy skasowali film. Telefon został jednak zabezpieczony przez policję, której przedstawiciele w toku postępowania przekazali aparat do analizy specjalistom informatyki śledczej. W laboratorium informatyki śledczej odzyskano wykasowaną zawartość telefonu, w tym nagranie z lekcji. Film został wykorzystany w sprawie.
Nieuczciwi pracownicy
Coraz powszechniejszy staje się ostatnio problem nieuczciwych pracowników. Do najliczniejszych przypadków, którymi zajmują się elektroniczni detektywi należy m.in. kradzież danych przez nieuczciwych pracowników.
Przykładem takiej sytuacji jest jedna z firm informatycznych, zajmująca się tworzeniem i wdrożeniami aplikacji biznesowych.Zespół zatrudniony do obsługi jednego z klientów firmy postanowił przejąć proponowane przez firmę rozwiązania (zespół przygotowywał się do kradzieży kodu źródłowego informacji) i sprzedać je poza nią, po uprzednim zwolnieniu się poszczególnych osób z pracy.
Ustalono nawet osobną pulę pieniędzy, która miała być przeznaczona na ewentualną karę nałożoną przez pracodawcę. Propozycję, która miała być tańsza od oryginalnej, złożył jeden z handlowców, będący w bezpośrednim kontakcie z klientem. W wyniku tego klient postanowił zerwać umowę z firmą i skorzystać z tańszej oferty złożonej przez nieuczciwych pracowników.
Zaniepokojony takim postępowaniem klienta zarząd firmy postanowił przeanalizować zaistniałą sytuację i w wyniku własnych ustaleń dotyczących handlowca zdecydował się na dalsze kroki - zlecenie firmie Kroll Ontrack analizy komputerów, urządzeń PDA oraz telefonów komórkowych należących do zespołu. Podjęte przez specjalistów działania dały pełny obraz nieuczciwych działań pracowników i pozwoliły firmie na wyciągnięcie prawnych konsekwencji w stosunku do zaangażowanych w to działanie osób.
Agencja reklamowa z Krakowa
Pracownik działu sprzedaży jednej z czołowych krakowskich agencji reklamowych założył własną działalność gospodarczą. Dysponując dostępem do zapytań ofertowych kierowanych do agencji przygotowywał konkurencyjne oferty w imieniu własnej firmy oferując organizatorom przetargów ceny niższe niż pracodawca. Właściciele agencji reklamowej zaniepokojeni kolejnym niepowodzeniem zdecydowali o sprawdzeniu jakości pracy swojego pracownika. Dysk twardy komputera pracownika przesłali do laboratorium odzyskiwania danych Kroll Ontrack prosząc o odzyskanie wykasowanych informacji. Wśród odzyskanych plików nie znaleziono żadnego dokumentu wskazującego na winę pracownika.
Właściciele agencji reklamowej nie poinformowali jednak specjalistów o celu zlecenia, którym było znalezienie dowodów na działanie nielojalnego pracownika - co nie jest równoznaczne z odzyskaniem danych. Sprawa trafiła do działu Kroll Ontrack zajmującego się dostarczaniem elektronicznych środków dowodowych. Okazało się, że zleceniodawcy błędnie założyli, iż pliki zostały tylko skasowane.
W rzeczywistości na ich miejsce zostały zapisane nowe informacje. W konsekwencji na dysku pozostały tylko fragmenty plików zawierające kluczowe informacje. Wśród odtworzonych informacji znalazły się konta bankowe, na które trafiały pieniądze z przegranych przez agencję, a wygranych przez firmę pracownika kontraktów, części ofert, wiadomości poczty elektronicznej dokumentujące działania pracownika.
Elektroniczni detektywi Kroll Ontrack odtworzyli również część wiadomości wysyłanych z prywatnego konta na komercyjnym portalu internetowym, do którego pracownik logował się bezpośrednio poprzez stronę www, bez pośrednictwa programu pocztowego.
Temat wykładu z 23 marca 2011r.
Paweł M. Rowiński
W ostatnich latach doświadczyliśmy wielu katastrof naturalnych, które zmieniły życie olbrzymiej ilości ludzi na naszym globie. Wystarczy wspomnieć niespotykaną sekwencję powodzi na terenie Polski w 2010 r., wybuch wulkanu Eyjafjallajökull na Islandii, olbrzymie tsunami w grudniu 2004 r., wywołane trzęsieniem ziemi u wybrzeży Sumatry czy też takie katastrofalne trzęsienia ziemi jak to, które zniszczyło Haiti w 2010, a tym bardziej tegoroczne tragiczne trzęsienie u wybrzeży Japonii.
Najbardziej jednak bolą katastrofy, do których w sposób szczególny przyczynił się człowiek. Warto w tym kontekście wspomnieć największą katastrofę ekologiczną w historii Węgier, która zdarzyła się w październiku zeszłego roku pod miastem Veszprem. Z fabryki produkującej aluminium wydostało się setki tysięcy metrów sześciennych toksycznej substancji o bardzo wysokiej kwasowości. Zalanych zostało kilka miejscowości, w wyniku poparzeń zginęło wiele osób a Węgry poniosły olbrzymie straty materialne. Człowiek jest istotą omylną i takie katastrofy mogą zdarzyć się wszędzie i w każdej chwili. Co zatem możemy zrobić, żeby choćby móc przewidzieć skutki takich katastrof?
Jedną ze sprawdzonych metod jest konstrukcja wysoko specjalistycznych modeli matematycznych, które pozwalają na symulację przenoszenia szkodliwych substancji, dostających się do rzeki na skutek awarii. Konstrukcja takich modeli jest bardzo złożonym procesem, wymagającym również przeprowadzenia kosztownych badań eksperymentalnych.
Wspomniane badania eksperymentalne to tzw. badania znacznikowe. Praktyczne stosowanie metody znaczników polega na wprowadzeniu do przepływającego medium substancji, posiadającej określoną właściwość, odróżniającą ją od tego medium. Ta specyficzna, w określonym środowisku cecha, umożliwia detekcję znacznika, polegającą na rejestracji jego stężenia w funkcji czasu. Uzyskane w ten sposób przebiegi czasowe stanowią podstawę do analizy procesów zachodzących w badanym układzie. Warunkiem koniecznym prawidłowego wykonania badań znacznikowych jest dobre rozpoznanie hydrologiczne i hydrauliczne badanego odcinka rzeki, co samo w sobie jest już złożonym zadaniem. Jako znacznik najczęściej stosowany jest bezpieczny ekologicznie barwnik fluoroscencyjny rodamina WT. Wykonanie pomiaru polega na impulsowym dozowaniu znacznika w przekroju poprzecznym rzeki (tak aby zasymulować katastrofę) i przeprowadzeniu rejestracji rozkładów stężenia znacznika w profilach pomiarowych, położonych w różnych odległościach od punktu dozowania. Jest to niezwykle złożone logistycznie zadanie, wymagające wielodniowych ciągłych rejestracji. Warto wspomnieć, że metoda ta została w szczególny sposób rozwinięta w Polsce przez zespół Instytutu Geofizyki PAN.
W literaturze światowej na ogół koncentrowano się na stosunkowo prostych topograficznie odcinkach rzecznych. W początku tego stulecia powstało naturalne pytanie, czy analogiczne modele (dla weryfikacji których przeprowadzano badania znacznikowe) można stosować w sytuacji, gdy mamy do czynienia z rzekami o skomplikowanej charakterystyce koryta. Pytanie wynikło z praktycznego zapotrzebowania na przeprowadzenie analiz transportu zanieczyszczeń w tzw. anastomozującym systemie rzecznym górnej Narwi, gdzie Narew płynie wieloma korytami, które rozdzielają się i łączą, tworząc nieregularną sieć. Tam też przeprowadzono pierwsze i dotychczas jedyne tego typu badanie na świecie. Był to milowy krok na drodze do zrozumienia charakteru dynamicznego rozprzestrzeniania się zanieczyszczeń w wielokorytowym odcinku rzecznym. Praca ta ma również wymiar praktyczny - w konsekwencji pozwala bowiem na prowadzenie racjonalnej gospodarki wodnej w regionie, pozwala też na zrozumienie zagrożeń w rozważanym obszarze, oraz na opracowanie metod ich unikania. Zachęceni tym sukcesem w roku 2006, wspólnie z zespołem z University of Warwick z Wielkiej Brytanii, przeprowadziliśmy w Narwi największe na świecie (w sensie skali czasowej, przestrzennej i ilości badanych przekrojów) badanie znacznikowe. Przeprowadziliśmy je na dziewięćdziesięciokilometrowym odcinku Górnej Narwi, począwszy od Zbiornika Siemianówka a skończywszy w Surażu (granica Narwiańskiego Parku Narodowego). Eksperyment wymagał znakomitego rozpoznania warunków hydraulicznych i jednoczesnych rejestracji stężeń znacznika w kilku przekrojach poprzecznych jednocześnie (co było możliwe dzięki łącznemu wykorzystaniu polskiej i brytyjskiej aparatury pomiarowej i zaangażowaniu kilkudziesięciu osób). Badania zakończyły się pełnym powodzeniem. Opracowany model matematyczny oraz wyniki badań eksperymentalnych pozwalają na przeprowadzenie analiz scenariuszowych dla antycypowanych katastrof w Górnej Narwi . Jest to rodzaj badań, którymi nie dysponowali Węgrzy w chwili tej jakże dramatycznej w skutkach katastrofy.
Temat wykładu z 23 marca 2011r.
prof. Magdalena Fikus
Wystarczy rzut oka na otaczających nas gdziekolwiek w tłumie ludzi, aby stwierdzić, że różnimy się między sobą. Wystarczy obejrzeć różnorodne filmy przyrodnicze, żeby zauważyć, że najbliższe nam zwierzęta - szympansy - znacznie różnią się od wszystkich ludzi wyglądem. Co zatem decyduje, z punktu widzenia biologa, o naszym człowieczeństwie?
Pierwsza, najprostsza odpowiedź - decydują geny i produkty ich działania, białka. Dyskusję z tego punktu widzenia możemy dziś prowadzić dzięki temu, że poznano już genomy (pełny zestaw cząsteczek DNA) człowieka i kilkunastu ssaków, w tym najbliższych nam: szympansa (4,5), goryla (6) (praca na ukończeniu), orangutana(12) i makaka (25)[1]. To datowanie potwierdzają wykopaliska. Zgodność czasową w oznaczeniach genomów i wyników wykopaliskowych potwierdzono, oznaczając budowę genomu człowieka Neandertalskiego (jego DNA wyizolowano i zbadano) wydobytego z kości dobrze zachowanych fragmentów szkieletów z przed 30-40 tys lat. Droga do ustalenia budowy ludzkiego genomu była stosunkowo krótka, trwała - od ogłoszenia Projektu Genomu Ludzkiego do pierwszego jego szkicu - zaledwie 15 lat. Ten Projekt powstawał we współpracy wielu pracowni genetycznych na świecie. Pierwszy wynik, który znalazł się także na pierwszych stronach gazet, ogłosiły w czasopismach Nature i Science w 2000 roku jednocześnie dwie, niezależne instytucje: kierowany przez J. Collinsa zespół finansowany przez amerykański i brytyjski budżet oraz zespół C. Ventera z prywatnego instytutu Celera Genomics. Ówczesne dane po wielokrotnym uściśleniu uznawane są dziś za „standard" genomu człowieka.
W przybliżeniu genom człowieka składa się z 3,2 mld par nukleotydów, ale tylko 27% tego DNA to obszary kodujące białka - wyjaśnienie znaczenia i roli pozostałych sekwencji stanowi przedmiot intensywnych badań, ponieważ to chyba właśnie tam ukrywa się „nasze genetyczne człowieczeństwo". Równolegle prowadzone badania wskazują też (np. projekt 1000 genomów), że indywidualne genotypy ludzkie różnią się znacznie między sobą (głównie organizacją sekwencji DNA i ich ułożeniem w chromosomach), nie mówiąc o mutacjach. Można powiedzieć, że nie istnieje standardowy, perfekcyjny genotyp, każdy z nas nosi około 300 istotnych zmian mutacyjnych, z których ok. 50 wariantów łączone jest z chorobami genetycznymi - zazwyczaj jesteśmy tylko ich nosicielami, mogą ujawnić się po spotkaniu dwojga nosicieli. Każdy z nas też ma kilkadziesiąt własnych mutacji, których nie mieli rodzice. Wyciągnięcie korzyści medycznych z tej wiedzy, czyli indywidualizacja sposobów leczenia, wiarygodne testy diagnostyczne, skuteczne leki kolejnych generacji - to wszystko wymaga takiego obniżenia kosztów sekwencjonowania DNA, aby możliwe były rutynowe oznaczenia indywidualnych genotypów. Wbrew obiegowym przekonaniom między genomem współczesnego szympansa i współczesnego człowieka nie ma wielu różnic w sekwencjach genów. Te dwa gatunki wyróżniają się wśród pozostałych człekokształtnych szybką ewolucją genetyczną. Różnice w ogólności sprowadzają się do innej budowy sekwencji regulujących aktywność genów, a nie samych genów, do intensywności wyrazu genów w różnych tkankach, do wielkich przegrupowań całych części chromosomów. Jeden z chromosomów ludzkich powstał ze zlania się dwu chromosomów szympansa. Jednym słowem różnimy się architekturą naszych genomów. Największe różnice w budowie DNA dotyczą chromosomów płciowych, X i Y, w ekspresji genów - tkanek mózgu. W linii ludzkiej ewolucji ubyło 90 genów wciąż obecnych u szympansów. Ludzie mają liczniejsze „rodziny" podobnych do siebie genów. Tylko 3731 genów różni człowieka od szympansa.
Zatem wbrew oczekiwaniom różnice w wyglądzie w stosunku do innych człekokształtnych nie są głównie wynikiem różnic w samych genach. Komplikujące się w miarę ewolucji gatunków ludzkich układy regulacji aktywności genów stworzyły podstawę do doskonalenia umiejętności pozwalających przeżyć dość bezbronnemu ssakowi. Staliśmy się ludźmi doskonaląc, zresztą m.in. w wyniku mutacji jednego genu, zdolność porozumiewania się dzięki mowie. W trakcie naszej ewolucji wykształciły się takie typowo ludzkie cechy i umiejętności jak: opieka nad niemowlętami i ludźmi starymi, długotrwający, bolesny poród, zdolność koordynacji ręki i oka, świadoma kontrola oddychania, prawo/leworęczność, zdolność do obróbki pożywienia, hodowla zwierząt i roślin, stworzyliśmy wysokie technologie, naukę, kulturę, sport, religię, zaatakowały nas niektóre choroby zakaźne (AIDS, WZW B/C) i neurologiczne (schizofrenia, depresja). Wymyśliliśmy także wojny, terroryzm, tortury, wciąż udoskonalaną broń. Stając się ludźmi coś zdobyliśmy, ale też coś straciliśmy. Najciekawsze pytanie brzmi: a co przed nami?
----------------------------------------------------------------------------------------------------------------------------------
[1] W nawiasach liczba milionów lat, które upłynęły od czasu, gdy mieliśmy wspólnego przodka
Temat wykładu z 25 marca 2011 r.
Janusz Piechna
Szybkie samochody muszą pokonywać słabo zależne od prędkości opory toczenia kół i opory mechaniczne oraz zależne od kwadratu prędkości opory aerodynamiczne, co powoduje, iż wymagana do jazdy moc zależy od trzeciej potęgi prędkości. Odpowiednio mocne silniki dostarczają takiej mocy. Aby uzyskiwać duże przyspieszenia konieczne jest zapewnienie odpowiednio dużej siły kontaktu opony z jezdnią. Silniki mają taki nadmiar mocy, iż potrafią zerwać przyczepność opon przy prędkościach przekraczających 100 km/h.
Przy pokonywaniu szybkich łuków ogromne siły odśrodkowe muszą być kompensowane przez siły przenoszone przez opony z jezdni. Także hamowanie wymaga przenoszenia dużych sił pomiędzy oponą a jezdnią. Maksymalna siła, jaką może przenieść opona na styku z podłożem, zależy od współczynnika przyczepności materiału z którego jest wykonana i siły, z jaką jest dociskana. Siła docisku przy małych szybkościach jazdy wynika z ciężaru pojazdu. Przy dużych prędkościach siła docisku może być zwiększona lub zmniejszona o powstające na nadwoziu siły aerodynamiczne. W większości typowych samochodów siły aerodynamiczne unoszą samochód do góry, co przy większych prędkościach powoduje problemy ze statecznością jego ruchu. Inaczej jest w samochodach budowanych do szybkiej jazdy.
Jeszcze w latach 50-tych nie przywiązywano wagi do aerodynamiki pojazdów. Enzo Ferrari twierdził, iż o aerodynamikę niech się martwią ludzie, którzy nie potrafią konstruować mocnych silników. Jak na ironię, w chwili obecnej samochody Ferrari mają jedne z najlepiej opracowanych aerodynamicznie nadwozi, w pełni wykorzystujących zalety docisku aerodynamicznego.
W latach 60-tych zdano sobie sprawę, iż przy dużych szybkościach opływ nadwozia przez powietrze może być źródłem dodatkowych sił korzystnie wpływających na prowadzenie pojazdu. Z jednej strony siły oporu aerodynamicznego stanowią przeszkodę w rozwijaniu dużych prędkości, a z drugiej - wytwarzają siły stabilizujące pojazd bez wzrostu jego masy. Uzyskanie aerodynamicznej siły docisku podczas pokonywania zakrętu powoduje, iż siły odśrodkowe mogą być pokonywane przez boczny opór opon zwiększony o siły aerodynamiczne, niezależne od masy pojazdu. Powoduje to znaczące zwiększenie maksymalnej bezpiecznej prędkości jazdy na łuku. Ponieważ droga hamowania zależy liniowo od prędkości, a energia rozpraszana podczas hamowania jest proporcjonalna do kwadratu prędkości, to hamowanie z dużych prędkości wymaga bardzo sprawnych hamulców. Wykorzystanie aerodynamicznych hamulców do hamowania przy dużych prędkościach umożliwia efektywniejsze wykorzystanie hamulców mechanicznych.
Siły aerodynamiczne dociskające samochód do jezdni wytwarzane są głównie dwoma sposobami. Najprostszym i najbardziej oczywistym jest stosowanie płatów dociskowych o kształtach stosowanych w lotnictwie, lecz bardzo krótkich i odwróconych, tak by wytwarzać siłę docisku. Bardziej skomplikowanym, efektywniejszym, lecz jednocześnie znacznie bardziej niebezpiecznym sposobem jest kształtowanie spodniej powierzchni pojazdu tak, by wytworzyć siłę aerodynamiczną przy pomocy efektu nazywanego efektem przyziemnym. Ze względów estetycznych w pojazdach poruszających się po drogach częściej wykorzystywany jest ten drugi sposób. W pojazdach wyczynowych stosowane są oba, w takim stopniu, w jakim dopuszczają to regulaminy sportowe. Osiągi, ale i zachowanie podczas szybkiej jazdy, pojazdów wyposażonych w aerodynamiczny docisk jest zupełnie inne niż typowych pojazdów.
Samochody z elementami aerodynamicznymi mogą pokonywać zakręty z szybkościami powodującymi powstawanie przyspieszeń bocznych przekraczających cztery i pół razy przyspieszenie ziemskie. Typowy kierowca nie zdaje sobie sprawy z ukrytych możliwości takich pojazdów i tylko przeszkoleni kierowcy są w stanie wykorzystać wszystkie ich atuty.
Głównym problemem szybkich samochodów jest zależność aerodynamicznej siły docisku od położenia pojazdu w stosunku do pojazdów przed nim jak też wielkości prześwitu pomiędzy jezdnią a pojazdem. Wzrost wysokości prześwitu powoduje spadek aerodynamicznej siły docisku i w konsekwencji utratę sił przenoszonych przez opony, co może skutkować wypadnięciem pojazdu z drogi. Także bliska obecność innego pojazdu z przodu zakłóca przepływ powietrza i zmniejsza siłę docisku z identycznym skutkiem. Szybkie samochody muszą być konstruowane tak, by elementy aerodynamiczne nadwozia zapewniały w każdych warunkach uzyskiwanie stabilnej siły docisku. Wykorzystanie ruchomych elementów aerodynamicznych, niedopuszczalne w samochodach sportowych z powodu ograniczeń regulaminowych, w przypadku samochodów turystycznych może sprzyjać wzrostowi ich bezpieczeństwa przez możliwość dopasowania chwilowych charakterystyk aerodynamicznych do zmieniających się na drodze warunków ruchu. Rozwiązania takie stosowane są już w wielu super samochodach jak Mitsubishi HRS II, Bugatti-Veyron czy Pagani Huayra.
Na stronach internetowych Akademii WSB stosowane są pliki cookies zgodnie z polityką prywatności.