Nauka

Zespoły naukowe pracowników Zakładu Systemów Informacyjno-Pomiarowych liczą w sumie 20 osób. W tym: 5 doktorantów, 1 asystent, 3 starszych wykładowców, 6 adiunktów, 1 docent, 1 profesor nadzwyczajny i 3 profesorów zwyczajnych. W Zakładzie prowadzona jest szeroka działalność naukowa, której rdzeniem w ujęciu historycznym, jest metrologia. W obszarze zainteresowań znajduje się wiele zagadnień badawczych leżących na granicy pomiędzy klasyczną metrologią, a nowoczesną informatyką: poczynając od podstaw technik pomiarowych, poprzez sieci sensorów, złożone systemy informacyjno-pomiarowe, cyfrowe przetwarzanie sygnałów pomiarowych, aż do zaawansowanych problemów analizy i klasyfikacji sygnałów. W tym zakresie najbardziej aktualne są zagadnienia związane z pomiarami środowiskowymi oraz jakością energii elektrycznej. Na szczególną uwagę zasługują też zagadnienia związane z pomiarami biomedycznymi (EKG, EEG) oraz komunikacją człowiek-komputer, w tym interfejs mózg-komputer (BCI). Szerokie spektrum badań jest unikalną cechą Zakładu.





  • Zespół Grafiki Komputerowej i Komunikacji Człowiek-Komputer

  • Zespół Modelowania Sieci Elektroenergetycznej

  • Zespół Pomiarów Magnetycznych

Opis badań bieżących

Kontynuowane są badania w zakresie zarządzania strukturą bezprzewodowych sieci sensorów WSN (Wireless Sensor Networks). Głównym kierunkiem badań jest efektywne określanie pozycji bezwzględnej i wzajemnej węzłów takiej sieci. Znane techniki pozycjonowania, przy użyciu sygnału radiowego ze źródeł referencyjnych, zostały udoskonalone dla wybranych aplikacji, poprzez wykorzystanie podstawowych efektów fizycznych, jakim podlega fala radiowa w środowisku propagacji. W szczególności, W zakresie implementacji bezprzewodowych sieci sensorów, głównym elementem aktualnie prowadzonych badań jest pomiar naprężeń występujących w złożonych konstrukcjach metalowych. Badania mają na celu określenie stanu wibracyjnego konstrukcji stalowych. Gdy poziom drgań przekracza wartości dopuszczalne, opracowywane są metody redukcji czy ograniczenia wpływu drgań maszyn i urządzeń na taką konstrukcję.

Rozwijane są badania jakości wody metodami nefelometrycznymi, również w technice bezprzewodowej. Nefelometria to metoda analizy stężenia roztworu na podstawie pomiaru natężenia światła rozproszonego przez zawiesinę, z wykorzystaniem efektu Tyndalla. Wiązka światła przechodząc przez roztwór koloidalny, pod określonym kątem względem wiązki padającej, staje się widoczna w postaci stożka Tyndalla. Na tej podstawie oznacza się stężenie tej zawiesiny lub rozmiary tworzących ją cząstek.

Realizowane są badania przydatności metod eksperymentalnych w podnoszeniu jakości modelowania sieci elektroenergetycznej. Mimo bogatego piśmiennictwa w zakresie modelowania podzespołów i sieci elektroenergetycznej na potrzeby analizy procesów przejściowych i rozpływu harmonicznych, niewiele publikacji dotyczy weryfikacji jakości modeli, szczególnie w zestawieniu z eksperymentem realizowanym na realnej sieci. W ten sposób „dobra jakość symulacji” staje się pojęciem rozmytym, w szczególności gdy brak jest konkretów odnośnie zalgorytmizowania symulacji, co nie pozwala na odtworzenie i głębsze badania zaproponowanych metod przez inne zespoły badawcze. Celem realizowanych prac jest zaproponowanie metod pomiarowych pozwalających na wytworzenie wiarygodnych modeli podzespołów sieci elektroenergetycznej oraz potwierdzenie eksperymentalne przydatności i określenie ograniczeń wykorzystania tych modeli do opisu sieci elektroenergetycznej jako całości, w praktycznie wykorzystywanych, ogólnodostępnych środowiskach symulacyjnych Matlab/Simulink i ATP/EMTP. W ten sposób zorientowane prace pozwolą na współdzielenie i odnoszenie uzyskanych wyników do równolegle prowadzonych prac w różnych środowiskach zajmujących się tą i pokrewną tematyką, nadając prowadzonym badaniom charakter utylitarny.

Badania w zakresie przetwarzania i analizy sygnałów elektrokardiograficznych dotyczą przede wszystkim etapu filtracji wstępnej sygnałów oraz identyfikacji charakterystycznych dla EKG elementów tego sygnału. W zakresie wstępnej filtracji zapisów elektrokardiograficznych zadanie dotyczy między innymi usuwania zakłóceń, które z natury są zmienne w czasie, przy czym właściwości widmowe są bardzo różnorodne. Zakłócenia te zniekształcają sygnał pomiarowy mający również charakter niestacjonarny. Dodatkowo charakterystyki widmowe obydwu składowych: użytecznej i zakłócającej w znacznym stopniu się na siebie nakładają. Dlatego też przedmiotem zainteresowań, analizy i propozycji rozwiązań są techniki adaptacyjne filtracji cyfrowej. Dodatkową, pożądaną jej cechą jest relatywnie niska złożoność obliczeniowa tak, aby możliwa była implementacja filtracji 12 odprowadzeń EKG, w czasie rzeczywistym, na mniej wydajnych platformach obliczeniowych. W trakcie testów wykorzystano wiele rozwiązań bazujących na filtrach SOI, NOI i aproksymacji pochodnych.

Innym nie mniej interesującym i istotnym zagadnieniem jest analiza i identyfikacja zapisów elektrokardiograficznych. W tym zakresie szczególny nacisk położony jest na lokalizację oraz identyfikację charakterystycznych dla EKG zespołów QRS. Lokalizacja zespołów QRS jest podstawowym zadaniem, które rozpoczyna analizę. Wiarygodność wyników otrzymanych na tym etapie, bezpośrednio wpływa na jakość parametrów wyznaczanych w etapach kolejnych. Zarówno w lokalizacji jak i rozpoznawaniu pochodzenia morfologicznego zespołów QRS przydatnym narzędziem jest transformacja falkowa, dzięki której uzyskuje się bardzo dobre wyniki. Natura transformacji falkowych pozwala na precyzyjne określenie położenia zespołu QRS w zapisie oraz uzyskanie informacji dotyczących odmiany zespołu (prawidłowy czy anormalny) jak również jego morfologii (np: zespół pochodzenia komorowego). W tym zastosowaniu narzędziem pomocniczym są wykładniki Lipschitza, dzięki którym można wyznaczyć miarę lokalnej regularności/kształtu sygnału. Prowadzone w Zakładzie badania mają również na celu opracowanie pewnego i stabilnego oprogramowania pozwalającego na wykorzystanie go w rzeczywistym systemie medycznym

Drugim obszarem badan w zakresie wykorzystania sygnałów biomedycznych to interfejs mózg-komputer. Interfejs mózg-komputer (Brain-Computer Interface, BCI) to interfejs umożliwiający bezpośrednią komunikację między mózgiem, a urządzeniem zewnętrznym. Głównym zadaniem BCI jest umożliwienie komunikacji ze światem zewnętrznym pacjentom w ciężkich stadiach takich chorób neurologicznych jak: stwardnienie zanikowe boczne, udar mózgowy podkorowy, zespół Guillaina-Barrégo, mózgowe porażenie dziecięce czy stwardnienie rozsiane. Największe nadzieje wiązane są z interfejsem BCI wykorzystującym nieinwazyjny pomiar sygnału EEG z powierzchni głowy. Przy realizacji interfejsów mózg-komputer wykorzystuje się trzy podstawowe metody:

  • SSVEP (steady state visual evoked potentials), polega na odszukaniu w sygnale EEG cech powodowanych koncentracją uwagi na wybranym symbolu wyświetlanym ze znaną częstotliwością.
  • P300, polega na detekcji potencjałów wywołanych w sygnale EEG w wyniku zaobserwowanego podświetlenia oczekiwanego znaku np. litery. Najczęściej podświetlane są wiersze i kolumy macierzy liter. Podświetlenie wiersza lub kolumny, w której znajduje się wybrany znak, powoduje pojawienie się specyficznego potencjału wywołanego o nazwie P300.
  • ERD/ERS (event-related desynchronization/synchronization), polega na odczycie intencji ruchu np. ręką lub nogą. Ten najbardziej naturalny tryb komunikacji, umożliwiający sterowanie urzadzeniem, jest jednocześnie najbardziej skomplikowany w realizacji. Odróżnienie intencji ruchu np. lewą i prawą ręką możliwe jest częściowo dzięki lateralizacji funkcji mózgu, więc wymaga stosunkowo dużej liczby elektrod. Dodatkowo stosuje się uśrednianie realizacji EEG pochodzących z wielu powtórzeń tego samego wyobrażenia.

Na drodze skonstruowania skutecznie działającego interfejsu BCI stoją trzy zasadnicze problemy:

  • Klasyczny pomiar sygnału EEG wymaga pracochłonnego oklejania głowy elektrodami (32-512 elektrod), z użyciem specjalnych żelów, dla uzyskania odpowiednio niskiej rezystancji kontaktu skóra-elektroda.
  • Niezależnie od jakości elektrod, sygnały docierające z mózgu do powierzchni czaszki mają bardzo małe poziomy amplitud, rzędu kilku mikrowoltów. Narażone są na szumy i zakłócenia. Wydobycie sygnałów z szumu jest zadaniem niezwykle trudnym.
  • Sygnał EEG jest nieliniową sumą elektrycznego śladu ogromnej liczby jednoczesnych procesów, dlatego ekstrakcja informacji użytecznej do sterowania wymaga nie tylko wiedzy o tych procesach, ale też zaawansowanych algorytmów analizy i klasyfikacji sygnałów oraz relatywnie dużych mocy obliczeniowych do realizacji tych procesów w czasie rzeczywistym.

Przedmiotem dotychczasowych badań, prowadzonych w Zakładzie była próba rozwiązania wymienionych wyżej problemów. Zdobyte doświadczenia są aktualnie wykorzystywane w dalszych pracach. Realizowane są zaawansowane badania w zakresie wykorzystania fal EEG do analizy emocji na użytek neuromarketingu. Neuromarketing to dziedzina wiedzy związana z bezpośrednim badaniem reakcji psychofizjologicznych człowieka (konsumenta) na oferowane produkty. Do metod badawczych neuromarketingu należą między innymi: badanie reakcji skórno-galwanicznej, elektroencefalografia,  elektromiografia, funkcjonalny magnetyczny rezonans jądrowy, neuroobrazowanie. W zakresie badań elektroencefalograficznych (EEG) wykorzystuje się nowe narzędzia diagnostyki pracy mózgu, do wykrywania podświadomych, emocjonalnych reakcji konsumenta na prezentowane bodźce. Wpływ emocji na podejmowanie decyzji przez konsumentów, stwierdzono na podstawie szeregu przeprowadzonych do tej pory badań neuromarketingowych. Metoda EEG, jest stosunkowo wygodna i obciążona niewielkimi kosztami. Łatwość jej użycia wynika z faktu, że w ostatnich latach nastąpił istotny rozwój w zakresie metod rejestracji sygnałów elektroencefalograficznych, dokonywanych z użyciem elektrod rozmieszczonych na powierzchni skóry głowy. Głównym celem eksperymentów, jest znalezienie w zarejestrowanych sygnałach EEG cech, które różnicują prezentowane osobom badanym bodźce wzrokowe i dźwiękowe.

Ważny element badań stanowią prace związane z oceną olśnienia występującego na zewnętrznych stanowiskach pracy. Olśnieniem nazywa się pewien stan procesu widzenia, przy którym występuje odczucie niewygody lub zmniejszenie zdolności rozpoznawania przedmiotów, w wyniku niewłaściwego rozkładu lub zakresu luminancji albo nadmiernych kontrastów zarówno w przestrzeni jak i w czasie. Olsnienia kategoryzuje się na przeszkadzające i przykre. W praktyce, olśnienie przykre stanowi większy problemem niż olśnienie przeszkadzające. Uczucie przykrości ma tendencję do wzrostu wraz z upływem czasu i jest przyczyną stresu oraz zmęczenia. Ponadto, środki podjęte do ograniczenia olśnienia przykrego, zwykle niwelują olśnienie przeszkadzające.

Kolejna tematyka badań związana jest z organizacją wirtualnego laboratorium, w którym znaczącym elementem jest tzw. zdalny dostępu do laboratorium rzeczywistego. Platforma zdalnego laboratorium, wspomagana jest odpowiednim oprogramowaniem, sprzętem komputerowym, pomiarowo-sterującym oraz odpowiednimi mediami pozwalającymi na uwolnienie użytkownika laboratorium od ograniczeń związanych z miejscem oraz czasem pracy. Strukturę opracowanego modelu zdalnego laboratorium osadzonego w sieci komputerowej podzielić można na dwa funkcjonalne bloki: główny serwer, tzw. zarządca systemu oraz serwer pomiarowy.

Proponowany model zdalnego laboratorium charakteryzuje się cechami w ogólności przypisywanymi systemom rozproszonym terytorialnie, a mianowicie:

  • współużywanie pamięci masowych do archiwizacji danych dostarczonych z poszczególnych stanowisk,
  • współużywanie zasobów sprzętowych zainstalowanych w sieci, pozwalające na optymalizację ich wykorzystania,
  • możliwość funkcjonalnej integracji rozproszonych zasobów pomiarowych,
  • otwartość, współbieżność, skalowalność,
  • tolerowanie uszkodzeń.

Od użytkownika zdalnego laboratorium jest wymagane jedynie posiadanie komputera oraz dostępu do sieci Internet. Za pomocą przeglądarki internetowej użytkownik uzyskuje dostęp do zasobów laboratorium oraz może komunikować się z innymi użytkownikami. Do obsługi wirtualnych przyrządów pomiarowych potrzebny jest „gruby klient” – tzn. taki, który pozwala na uruchomienie wirtualnych przyrządów pomiarowych napisanych pod postacią apletów Java lub poprzez specjalny aplet napisany w technologii ActiveX udostępniający panel użytkownika uruchomiony na zdalnej maszynie.

Ostatnio, zbudowane zostało ćwiczenie laboratoryjne, dostępne w sposób zdalny pn. „Badanie parametrów silnika indukcyjnego”.

Instytut Elektrotechniki Teoretycznej i Systemów Informacyjno-Pomiarowych