Obrona

Ace your homework & exams now with Quizwiz!

16. Scharakteryzuj języki programowania sterowników logicznych oraz systemy SCADA, służące do nadrzędnego sterowania i gromadzenia danych.

1. Język drabinkowy LD - odpowiednik schematu stykowego opartego o przekaźniki. Składa się ze szczebli, po lewej wejścia sygnałów, po prawej wyjścia. Składnia zawiera: Styki, Cewki, bloki funkcyjne takie jak Liczniki, Regulatory, bloki programowalne 2. Język schematów blokowych FBD - Program jest przedstawiony w postaci bloków obrazujących funkcje logiczne wykonywane przez program, pomiędzy którymi przesyłane są wartości zmiennych. W schemacie mogą występować sprzężenia zwrotne. 3. Język instrukcji IL - język niskiego poziomu przypominający składnią asemblera. Program składa się z sekwencji pojedynczych operacji wykonywanych przez procesor. 4. Język strukturalny (ST) - język wysokiego poziomu oparty o język Pascal. Przeznaczony do opisu złożonych wyrażeń, których nie da się zrealizować w językach graficznych. Istnieje możliwość tworzenia takich struktur jak funkcje warunkowe, pętle, funkcje matematyczne. 5. Sekwencyjny język graficzny (SFC) - zbudowany z bloków, w których wykonywane są zaprogramowane operacje. Po wykonaniu wszystkich z danego poziomu program przechodzi dalej. Istnieje możliwość równoległego przetwarzania kilku części programu. SCADA - Supervisory Control And Data Acquisition SCADA jest to system nadzorujący przebieg procesu technologicznego lub produkcyjnego. Pośredniczy pomiędzy sterownikami PLC (podłączonymi bezpośrednio do urządzeń pomiarowych i wykonawczych) a systemem komputerowym. Funkcje: - Zbieranie aktualnych danych - Wizualizacja danych - Sterowanie procesem - Archiwizacja danych

Komputery modułowe są szeroko stosowane w przemyśle do sterowania liniami produkcyjnymi, procesami technologicznymi oraz są używane do nadzoru urządzeń pracujących, zbierania pomiarów i przetwarzania sygnałów. Magistrale systemowe dla systemów wieloprocesorowych stosowane w komputerach modułowych to na przykład: - VME Versabus Module Europe - ISA Industry Standard Architecture - EISA Extended Industry Standard Architecture - PCI Peripheral Component Interconnect Bloki modułowe komputerów sterujących - Jednostki sterującej (CPU) - Pamięci ROM, EPROM, EEPROM - Wejść / wyjść cyfrowych - Wejść / wyjść analogowych - Modułów komunikacyjnych - Modułów specjalnych. Składowe magistral: 1. Szyna danych 2. Szyna adresowa - określa zapis odczyt konkretnej komórki pamięci 3. Szyna sterująca - określa odczyt, zapis 4. Szyna sygnałów pomocniczych. 5. Linie przerwań 6. Dostęp do różnych innych kanałów poprzez DMA 7. Zasilanie 8. Taktowanie i synchronizacja VME - Szerokie zastosowanie w systemach sterowania - Architektura Master-Slave (moduły master mogą inicjować transmisję, może ich być kilka - magistrala wieloprocesorowa) - Asynchroniczna transmisja danych, metoda uzgodnień pomiędzy modułami do synchronizacji pracy - Zmienna prędkość zależna od wolniejszego z komunikujących się modułów - Szyny: transimsji danych, przerwań priorytetowych, arbitrażu transmisji danych, sygnałów pomocniczych. ISA - standard magistrali oraz złącz kart rozszerzeń dla komputerów osobistych, służy do przyłączania kart rozszerzeń do płyty głównej - Szyna danych 16 lub 8 bitowa - Szyna adresowa 24 bitowa - Brak sygnałów związanych z układem DMA - Sygnały sterujące: MEMR, MEMW, szyny przerwań CLK, OSC - Teoretyczna szybkość 8 Mb/s (efektywna 1,6 - 1,8 Mb/s) EISA - 32-bitowe rozwinięcie ISA PCI - przyłączanie kart rozszerzeń do płyty głównej w PC - Każda karta pasująca do gniazda PCI zadziała, ze względu na znormalizowane sygnały i przeznaczenie styków - Skalowalna - w jednym komputerze może znajdować się kilka magistral - Prędkość 132 MB/s w wersji podstawowej, później zwiększona do 533 MB/s - Komunikacja kart podłączonych do PCI może odbywać się bez udziału procesora - Każda karta posiada rejestry konfiguracyjne, dzięki którym procesor rozpoznaje urządzenie podczas ładowania systemu.

20. Omów magistrale oraz architektury stosowane w modułowych komputerach sterujących

27. Opisz sposób wykorzystania algorytmów genetycznych w zadaniach wielokryterialnej optymalizacji.

Algorytmy Genetyczne(AG) to grupa algorytmów ewolucyjnych, bazujących na ewolucji naturalnej, której podstawy stworzył Karol Darwin. Ich działanie opiera się na trzech głównych zasadach: - Reprodukcji - Selekcji - Utrzymywaniu różnorodności Zasady te stosowane są na zbiorze osobników, reprezentujących prawdopodobne rozwiązanie danego zadania. Wybór dokonywany jest na podstawie oceny osobników względem pewnego kryterium zwanego funkcją przystosowania. Najlepsze osobniki (w sensie danego kryterium) tworzą nową generację (populację). Algorytmy genetyczne (ewolucyjne) posiadają pewne cechy, które preferują je do rozwiązywania problemów optymalizacji. - Dobrze sprawdzają się w optymalizacji wielu sprzecznych ze sobą celów - Dobrze sprawdzają się w przypadku przeszukiwania bardzo dużych i złożonych przestrzeni Optymalizacja wielokryterialna: W optymalizacji wielokryterialnej pojęcie rozwiązania optymalnego nie jest tak oczywiste, jak w przypadku jednego kryterium, gdzie poszukujemy po prostu najlepszej wartości pewnej funkcji celu. Dlatego wprowadzono pojęcie optymalności w sensie Pareto. Metody optymalizacji wielokryterialnej można podzielić na 2 kategorie: - Techniki skalaryzacji - problem wielowymiarowy sprowadzany jest do problemu jednowymiarowego i w konsekwencji otrzymujemy jedno rozwiązanie - Techniki Pareto - wynikiem jest zbiór rozwiązań Techniki skalaryzacji należą takie metody jak Metoda ważonej sumy, programowanie kompromisowe, analiza użyteczności wielokryterialnej,programowanie celów Istotną wadą tych rozwiązań jest słuszność znalezionych rozwiązań tylko dla wybranych parametrów oraz trudność określenia wzajemnych zależności pomiędzy kryteriami. Techniki Pareto Poszukiwanie i filtrowanie w sensie Pareto, metoda sum ważonych ze skanowaniem wag, AG do optymalizacji wielokryterialnej Istotną zaletą tych technik jest to, że pozwalają na uniwersalną skalaryzację Znane jest pojęcie optymalności w sensie Pareto Związane to jest z rozwiązaniem, które możemy określić jako niezdominowane - gdy nie istnieją żadne rozwiązania, które byłyby lepsze ze względu na wszystkie kryteria jednocześnie, zdominowane - gorsze od innych. W zadaniach Optymalizacji Wielokryterialnej zamiast jednej odpowiedzi otrzymujemy zbiór rozwiązań, z których żadne nie jest zdominowane przez drugie. Są to rozwiązania optymalne w sensie Pareto (Pareto-optymalne, Poptymalne) Decyzja wyboru któregoś z rozwiązań ze zbioru polioptymalnego jest kwestią kompromisu. W zbiorze Pareto-optymalnym nie ma wskazówek co do wyboru ostatecznego rozwiązania. W konkretnym zadaniu projektowokonstrukcyjnym elementy tego zbioru nie są jednak równowarte. Zadaniem decydenta jest dokonanie racjonalnego wyboru. Algorytmy genetyczne w szczególności nadają się do optymalizacji wielokryterialnej, ponieważ umożliwiają odnalezienie rozwiązań Pareto-optymalnych przy jednym uruchomieniu algorytmu.

28. Podaj mechanizmy zapobiegania przedwczesnej zbieżności w algorytmach ewolucyjnych

Algorytmy ewolucyjne Są to algorytmy wzorowane na biologicznej ewolucji, stosowane do zadań optymalizacji i modelowania. Przeszukują przestrzeń alternatywnych rozwiązań w celu wyszukania najlepszego rozwiązania. Populacja jest to zbiór alternatywnych rozwiązań danego problemu, czyli osobników z początku wybieranych losowo. Każdy osobnik posiada pewien zbiór informacji stanowiący jego genotyp. Genotyp może być zapisany jako ciąg binarny, lub jako liczba rzeczywista. Genotyp składa się z chromosomów, gdzie zakodowany jest fenotyp i ewentualne pewne informacje pomocnicze dla algorytmu genetycznego. Chromosom składa się z genów. Fenotyp to zbiór cech podlegających ocenie funkcji przystosowania modelującej środowisko. Funkcja przystosowania ocenia jak dobre jest rozwiązanie. Fazy algorytmu 1. Selekcja - czyli wybór osobników na rodziców, którzy wezmą udział w reprodukcji 2. Krzyżowanie - krzyżowanie ze sobą genotypów rodziców wybranych w selekcji, tworzone są nowe osobniki 3. Mutacja - losowe wprowadzenie drobnych zmian w genotypach osobników 4. Wprowadzenie nowej populacji w miejsce starej i uruchomienie symulacji. Zbieżność występuje wtedy, gdy nie ma różnorodności genotypu populacji i zostaje ona zmonopolizowana przez 1 typ osobnika. Każde kolejne rozwiązanie ma gorszą wartość przystosowania niż jego rodzice, przez co rozwiązanie nie zmienia się znacząco. Często związana jest z powstaniem elit, czyli zbiorem aktualnie najlepszych osobników. Gdy następuje zbieżność, algorytm ewolucyjny kończy się (znalazł rozwiązanie). Przedwczesna zbieżność występuje wtedy, gdy zbieżność nastąpiła za wcześnie, gdy algorytm nie doszedł jeszcze do rozwiązania globalnego. Otrzymujemy wtedy rozwiązanie suboptymalne (np. zatrzymujemy się w ekstremum lokalnym, nie globalnym). Metody zapobiegania przedwczesnej zbieżności 1. Pełna reprodukcja Prosta operacja polegająca na wymianie całej populacji nowymi osobnikami (w tej samej liczbie). ma to na celu zapobiegnięcie powstawania elit, mogących prowadzić do przedwczesnej zbieżności. 2. Skalowanie liniowe Skalowanie liniowe wykonuje się poprzez modyfikację funkcji przystosowania osobników Poprzez skalowania można modyfikować szybkość zbieżności poprzez sztuczne zwiększenie lub zmniejszenie różnorodności przystosowania 3. Niszowanie Nisza w algorytmach ewolucyjnych obszar, w którym znajdują się osobniki podobne parametrycznie (genotypowo), o podobnym stopniu przystosowania. Niszowanie sztuczne zachowanie gorzej przystosowanych osobników, aby populacja pozostała różnorodna, poprzez: - utrzymywanie stałej liczby istniejących gatunków, tych lepiej i słabiej przystosowanych. - modyfikację przystosowania osobników - równomierną hodowlę poszukiwań Modyfikacja przystosowania osobników ma zwiększyć szansę osobników o słabym fenotypie i zmniejszyć szansę gatunkom z gęstych nisz.

2. Scharakteryzuj główne założenia metody korekcji liniowych układów dynamicznych ze sprzężeniem zwrotnym w oparciu o charakterystyki częstotliwościowe. Omów rolę członu całkującego w korektorze (regulatorze).

Cele korekcji dynamicznej: - Stabilizacja układu zamkniętego. - Kształtowanie czasu ustalania - Zapewnianie statycznej dokładności regulacji Pętla sprzężenia zwrotnego w układzie umożliwia korekcję błędów i zakłóceń. Częstotliwościowa charakterystyka Bodego oraz Nyquista, pozwala na określenie właściwości układów w przypadku okresowych sygnałów wejściowych. Badanie to przeprowadza się dla pobudzenia sinusoidalnego u = A(ω)sin(ωt) Metodą częstotliwością można określić takie wskaźniki jakości sterowania jak: - Zapas wzmocnienia układu zamkniętego - Zapas odcięcia fazy układu zamkniętego - Czas ustalania - Stała uchybowa - Rząd astatyzmu układu W przypadku, gdy jeden z tych parametrów odbiega od zamierzonej wartości stosuje się regulatory LEAD i LAG LEAD - człon różniczkujący, który przyspiesza układ i zwiększa stabilność. Podczas projektowania regulatora kompensuje się zerem regulatora najwolniejszy stabilny biegun transmitancji obiektu i dodaje biegun regulatora, żeby znalazł się on względnie daleko od początku układu współrzędnych. LAG - człon całkujący, który ma za zadanie zmniejszyć uchyb w stanie ustalonym, wprowadza biegun blisko początku układu współrzędnych, może powodować destabilizację układu. Człon całkujący po domknięciu pętli sprzężenia zapewnia układowi odpowiedni rząd astatyzmu, który pozwala na likwidować błąd ustalony i podążać za sygnałem skokowym, rampą i parabolą. Człon całkujący wprowadza przesunięcie fazowe o 90 stopni. Rząd astatyzmu zwiększa się za pomocą członów całkujących.

21. Omów problem minimalnego drzewa rozpinającego i podaj przykłady zastosowań

Graf jest to podstawowa struktura służąca do przedstawiania i badania relacji między obiektami. Graf nieskierowany, który jest acykliczny i spójny, czyli z każdego wierzchołka można dotrzeć do każdego innego oraz nie posiada on pętli nazywamy drzewem. Drzewo rozpinające jest to graf nieskierowany, z którego zostało utworzone drzewo poprzez usuwanie krawędzi grafu tworzących cykle oraz zapewniając spójność grafu. Stąd również znane jest pojęcie Minimalnego drzewa rozpinającego, czyli takie, którego suma wag krawędzi łącząca wierzchołki grafu jest najmniejsza Istnieje kilka algorytmów o złożoności liniowo-logarytmicznej znajdujące dla zadanego grafu minimalne drzewo rozpinające, dla grafów nieskierowanych, ważonych, spójnych: - algorytm Prima - algorytm Kruskala Minimalizacja drzewa rozpinającego ma swoje zastosowanie w: - Transporcie - Tworzeniu różnego rodzaju sieci: energetycznej, wodociągowej, komputerowej

21. Omów problem minimalnego drzewa rozpinającego i podaj przykłady zastosowań

Graf jest to podstawowa struktura służąca do przedstawiania i badania relacji między obiektami. Graf nieskierowany, który jest acykliczny i spójny, czyli z każdego wierzchołka można dotrzeć do każdego innego oraz nie posiada on pętli nazywamy drzewem. Drzewo rozpinające jest to graf nieskierowany, z którego zostało utworzone drzewo poprzez usuwanie krawędzi grafu tworzących cykle oraz zapewniając spójność grafu. Stąd również znane jest pojęcie Minimalnego drzewa rozpinającego, czyli takie, którego suma wag krawędzi łącząca wierzchołki grafu jest najmniejsza Istnieją trzy deterministyczne algorytmy o złożoności liniowo-logarytmicznej znajdujące dla zadanego grafu minimalne drzewo rozpinające, dla grafów nieskierowanych, ważonych, spójnych: - algorytm Boruvki - algorytm Prima - algorytm Kruskala Minimalizacja drzewa rozpinającego ma swoje zastosowanie w: - Transporcie - Tworzeniu różnego rodzaju sieci: energetycznej, wodociągowej, komputerowej

29. Podaj definicję i cechy harmonogramu produkcyjnego

Harmonogram produkcyjny - to uszeregowanie w czasie operacji dla maszyny lub grupy maszyn. Opisuje on dostępne zasoby produkcyjne w czasie i przestrzeni, które pozwalają na zrealizowanie wymaganej wielkości produkcji dla każdego z wymaganych wyrobów przy ograniczeniach wynikających z grafu operacji oraz zajętości innych urządzeń. Cechy harmonogramu produkcyjnego: - W każdej chwili maszyna wykonuje maksymalnie jedną operację - Wyrób Jj jest wykonywany w przedziale [rj ; +inf], ale najlepiej, aby został wykonany w czasie dj - Wszystkie zadania produkcyjne zj są rozplanowane w czasie - Wykonywanie pojedynczej operacji nie może być przerwane - Harmonogram uwzględnia graf ograniczeń kolejnościowych Kolejność wykonywania operacji jest przedstawiany zazwyczaj na wykresie Gantta'a W celu optymalizacji zadań oraz czasu pracy maszyn stosuje się różnorakie algorytmy optymalizacji zadań. Jednym z częściej wykorzystywanych jest Algorytm Johnsona Algorytm Węgierski lub przekształocny algorytm Dijkstry

7. Omów zasady komunikacji równoległej i szeregowej oraz ich wspomaganie sprzętowe

Komunikacja równoległa Do transmisji równoległej służą zespoły lini zwane portami równoległymi. Najczęściej składają się one z 8 linii, więc mogą transmitować dane bajtami. Dane są transmitowane poprzez wystawianie pojedynczych bitów na każdym z portów w tym samym momencie czasu. Port ten pozwala na bezpośrednie wyprowadzenie informacji z wewnętrznej szyny danych. Funkcje: - Czytanie danych poprzez uaktywnienie trójstanowego bufora sygnałem READ i doprowadzenie chwilowych stanów napięć na wyprowadzeniach do wewnętrznej szyny danych układu. - Wpisywanie danych poprzez uaktywnienie trójstanowego bufora sygnałem WRITE i zapamiętanie chwilowego stanu wewnętrznej szyny danych w elementach zapamiętujących poszczególnych lini. Stan zostaje wystawiony na wyprowadzeniach portu i pozostaje niezmienny, dopóki nie nastąpi kolejna operacja wpisania danych. Typy portów równoległych: - porty dwukierunkowe - porty jednokierunkowe wejściowe - porty jednokierunkowe wyjściowe Komunikacja szeregowa Do transmisji szeregowej wykorzystywany jest jeden port, bity przesyłane są kolejno w rytm sygnału zegarowego, istnieje konieczność zastosowania układu przetwarzającego dane z wewnętrznej szyny danych na strumień bitów. Funkcje sterownika komunikacji szeregowej: - nadajnika poprzez wysyłanie zawartości określonego rejestru (bufora nadajnika) w postaci szeregowej - odbiornika poprzez zamianę doprowadzanego na port ciągu binarnego na zawartość rejestru (buforu odbiornika) Rodzaje sterowników: - dwukierunkowy, pozwala na jednoczesne odbieranie i nadawanie danych, jeśli posiada oddzielne linie - jednokierunkowy w danej chwili transmisja odbywa się w jednym kierunku, wspólna linia Rodzaje transmisji szeregowej -Asynchroniczna, transmisja danych nie jest związana z żadnym sygnałem sterującym. Oprócz danych przesyłany jest bit startu, stopu oraz ewentualny bit parzystości. Pomiędzy nadajnikiem i odbiornikiem musi być ustalona częstotliwość komunikacji. Odbiornik z ustaloną częstotliwością próbkuje linię wejściową i po wykryciu bitu startu odczytuje ustaloną liczbę bitów. - Synchroniczna, równolegle z ciągiem bitów przesyłany jest sygnał synchronizujący, który określa chwile, w których stan linii danych odpowiada ważnym wartościom kolejnych bitów. Moment ważności danej bitowej, może być ustalony dla określonego stanu linii zegarowej lub zbocza tego sygnału. Możliwe jest przesyłanie bitu parzystości, brak startu i stopu

18. Przedstaw zasady modelowania układów przy użyciu pakietu MATLAB

MATLAB - pakiet przeznaczony do wykonywania obliczeń numerycznych oraz graficznej prezentacji wyników. Stosowany do projektowania, testowania i opracowywania modeli matematycznych w różnych dziedzinach nauki i techniki. Elementy środowiska MATLAB: - Środowisko robocze składające się z zestawu narzędzi do zarządzania zmiennymi, plikami MATLABa, importowania i eksportowania danych - System graficzny funkcje do tworzenia dwu i trój-wymiarowych wykresów, funkcji przetwarzania obrazów i opracowywania animacji, budowę GUI - Język MATLAB język skryptowy zbliżony do C, używany w środowisku MATLABa do tworzenia własnych funkcji, operacji na zmiennych i przetwarzania danych - Biblioteki podstawowe biblioteki zawierają funkcje matematyczne np. funkcje macierzowe. Oprócz tego występują biblioteki specjalistyczne do obliczeń i symulacji z dziedzin np. automatyka, telekomunikacja czy mechanika np Imagine Processing Toolbox do przetwarzania obrazów. Neural Network ToolBox do symulacji sztucznych sieci neuronowych Fuzzy Logic ToolBox projektowanie i ocena inteligentnych systemów sterowania opartych o teorię logiki rozmytej i uczenia adaptacyjnego Simulink pozwalający na modelowanie, symulacja i analiza układów ciągłych i dyskretnych w czasie. Umożliwia budowę wielopoziomowych systemów w postaci bloków. Składa się on z: - biblioteki bloków pozwalających na graficzne definiowanie modeli - Algorytmy numeryczne pozwalające na rozwiązywanie układów równań różniczkowych, linearyzacji modeli, określania punktów równowagi - Funkcje stosowane przy konstruowaniu modeli i wykonywaniu symulacji Korzystanie z narzędzia Symulink polega na Zdefiniowaniu modelu poprzez schemat blokowy z elementów znajdujących się w bibliotece, połączenie bloków liniami reprezentującymi sygnały A następnie na Analizie modelu poprzez przeprowadzenie symulacji, linearyzacji, czy określenie, punktu równowagi. Simulink generuje wykresy porządanych sygnałów.

4. Omów podstawowe modele liniowych obiektów dynamicznych: modele wejściowo- wyjściowe oraz modele w przestrzeni stanu. Przedstaw związki pomiędzy takimi modelami.

Model wejściowo-wyjściowy wiąże wyjście obiektu z wejściem za pomocą transmitancji w dziedzinie częstotliwości Y(s) = G(s) * U(s) Y(s) - transformata Laplace-a wyjścia U(s) - transformata Laplace-a wejścia G(s) - transmitacja obiektu Wyznaczając transmitancję obiektu zakładane są zerowe warunki początkowe. Mnożeniu w dziedzinie operatora s odpowiada splot sygnałów w dziedzinie czasu t y(t) = g(t) * u(t) W modelu wejściowo-wyjściowym może dochodzić do utraty informacji o procesach wewnętrznych w przypadku skróceń par biegun-zero. Model w przestrzeni stanu - Opisuje związek pomiędzy zmiennymi stanu układu oraz wejściem układu w postaci równania różniczkowego. Oraz algebraicznego równania wyjścia układu wiążącego wektor stanu oraz wejścia układu. ẋ(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) Model w przestrzeni stanu pozwala na określenie sterowalności, stabilności oraz obserwowalności układu. Związek modelu w przestrzeni stanu z transmitancją: G(s) = C(sI-A)^-1 * B + D

1. Omów model w przestrzeni stanu liniowego obiektu dynamicznego. Podaj definicję oraz kryteria stabilności takich obiektów.

Obiekt dynamiczny - jest to system, którego odpowiedź zależy od aktualnego stanu wejść układu oraz od skutków przeszłych oddziaływań, warunków początkowych. Obiekt liniowy - Jest to obiekt spełniający zasadę superpozycji y(t) = R( u(t) ) czyli: Addytywności: y_1(t) + y_2(t) = R( u_1(t) + u_2(t) ) Skalowalności: k*y(t) = R( k*u(t) ) Model - jest to matematyczny opis rzeczywistego układu przedstawiający jego właściwości. Model w przestrzeni stanu - Opisuje związek pomiędzy zmiennymi stanu układu oraz wejściem układu w postaci równania różniczkowego. Oraz algebraicznego równania wyjścia układu wiążącego wektor stanu oraz wejścia układu. ẋ(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) A - macierz stanu B - macierz wejść C - macierz wyjść D - macierz przeniesień x(t) wektor stanu y(t) wektor wyjść u(t) wektor wejść Stabilność asymptotyczna - układ liniowy jest stabilny w sensie Lapunowa, jeŜeli pierwiastki jego równania charakterystycznego leŜą w lewej półpłaszczyźnie liczb zespolonych. Wówczas składowa swobodna ma charakter zanikający zmierzając do zera. Natomiast na osi urojonej występują pierwiastki pojedyncze w tym, co najwyŜej jeden równy zeru Kryterium Routha Kryterium Hurwitza Kryterium Nyquista

8. Omów zasady tworzenia modeli matematycznych obiektów rzeczywistych. Przedstaw składniki opisu nieformalnego i formalnego, będące podstawową modelowania oraz omów poziomy wierności modeli

Obiekt rzeczywisty - hipotetyczny fragment realnego świata. Jest źródłem danych o zachowaniu się modelowanego procesu. Modelowanie - Poszukiwanie zbioru elementarnych operacji opisujących zachowanie modelowanego procesu. Model - Zbiór elementarnych operacji opisujących zachowanie modelowanie procesu + reakcja modelu (co robi) + struktura modelu (w jaki sposób) Zasady tworzenia modeli matematycznych: 1. Nieformalny opis modelu i założeń w języku naturalnym, elementów, interreakcji, stanów elementów, Wady: niekompletności, niejednoznaczności 2. Formalny opis matematyczny określający ZESPÓŁ WIELKOŚCI - zespół pobudzeń, stanów wewnętrznych i reakcji wyjścia, ZESPÓŁ ODWZOROWAŃ - zespół reakcji na pobudzenie oraz podstawę czasu ( ciągła, dyskretna) 3. Symulacja w środowisku komputerowym 4. Prezentacja eksperymentów i wyników jej analizy 5. Ocena: Dotycząca zakresu zastosowań modelu Zasadności/wierności modelu, Weryfikacja poprzez porównanie reakcji modelu i układu rzeczywistego. Poziomy wierności modelu: - Replikatywny - powtarzanie odpowiedzi przy takim samym pobudzeniu - Predykcyjny - powtarzalna zgodność dla różnych warunków dodając obciążenie przewidujemy włąściwe zachowanie - Strukturalny - odtwarzanie reakcji [trajektorii we-wy] i sposobu działania układu rzeczywistego Kosztów przebiegu symulacji 6. Odniesienie do innych modeli (przeszłych / przewidywanych)

24. Wymień i scharakteryzuj podstawowe elementy wchodzące w skład systemu wspomagania decyzji

Podstawowe elementy systemu wspomagania decyzji to: - Baza danych lub wiedzy - Moduł sterujący - Baza modeli Baza danych - Czyli kolekcja danych zapisanych zgodnie z określonymi regułami dla danego systemu zarządzania. Modele bazy danych, dzielą się na: - Jednorodne - Relacyjne - Hierarchiczne - Semantyczne Baza wiedzy - szczegółowy, rozległy zbiór powiązanych logicznie danych dotyczących danej dziedziny. Przechowywany w pamięci komputera wraz z regułami logicznymi umożliwia efektywne wykorzystywanie bazy danych na wzór systemu ekspertowego. Moduł sterowania - czyli inaczej interfejs użytkownika, gdzie za jego pomocą użytkownik może zarządzać całym systemem Powinien on: - Zapewniać graficzny interfejs do komunikowania się z systemem. - Przekształcenie zadań podanych przez użytkownika na formę rozumianą przez system - Rejestracja aktualnych czynności oraz prezentacja wyników pracy systemu oraz danych diagnostycznych Baza modeli - przechowuje niezbędne modele, które będą używane podczas analizy. Model reprezentuje relacje pomiędzy różnymi parametrami stanu, innymi słowy jest on matematycznym opisem rzeczywistości. Modele są wykorzystywane w przypadku, gdy system wspomagania decyzji natrafi na problem niestrukturalny wtedy też problem jest przekształcany w model, dzięki czemu system wspomagania decyzji jest w stanie dać rozwiązanie. Dodatkowo możliwe jest zdefiniowanie określenie wiedzy pomocnej w systemach wspomagania decyzji. Wiedza a Priori - Reguły i fakty dotyczące danej dziedziny znane z góry - Może być podana przez każdego bardziej lub mniej doświadczonego eksperta. Wiedza wnoszona - Wiedza dotycząca konkretnego przypadku, który pojawił się podczas pracy eksperta lub systemu ekspertowego - Najczęściej nabywana podczas procesu podejmowania decyzji

6. Omów architekturę von Neumana i architekturę harwardzką. Porównaj architektury procesorów x86 i mikrokontrolerów.

Podział na architekture von Neumanna i harwardzka jest podziałem ze wzgledu na typ struktury mapy pamieci. Architektura von Neumana - Jednolita przestrzeń adresowa, zawierająca wszystkie pamięci, rejestry i układu I/O. - Czysto umowny podział na pamięć programu, pamięć danych oraz obszar I/O. Zależy tylko i wyłącznie od rozmieszczenia tych elementów w obszarze adresowym podczas projektowania systemu. - Jedna szyna danych dla danych i programu. Programowanie jest ułatwione ze względu na zastosowanie zunifikowanych, wykorzystujące te same tryby adresowania , rozkazów do danych, programu i urządzeń I/O -Wolniejsza od harwardzkiej, Wykonywanie instrukcji wymaga kilku przesłań danych. Architektura Harwardzka - Rozdzielony obszar adresowania pamięci danych i programu - niejednoznaczność adresów. - Dwie oddzielne szyny dla danych i programu. Magistrale danych i rozkazów mają różną szerokość. JC widzi pod tym samym adresem pamięć RAM i ROM. Potrzebne jest stosowanie różnych rozkazów dla pamięci programu i danych. - Szybsza od von Neumana. W trakcie pobierania argumentów wykonywanej instrukcji można zacząć pobieranie następnego rozkazu. Skraca się cykl rozkazowy przyspieszając pracę. Procesory x86 - Posiadają architekture CISC von Neumanna z rozszerzoną listą instrukcji - Nie posiadają urządzeń peryferyjnych - Brak pamięci wbudowanej Cache jedynie pamieć kolejkująca rozkazy - Zewnętrzna pamięć zarządzana jest przez moduł MMU Mikrokontrolery - Posiadają zarówno CISC jak i RISC (Complex/Reduced Instruction Set Computing) oraz von Neumanna albo harwardzką zależnie od modelu - Posiadają wbudowane urządzenia peryferyjne, zależnie od mikrokontrolera może posiadać przetworniki AC/CA, liczniki - Posiada wbudowaną pamięć i przez to też pamięć zewnętrzna jest stosowana poprzez port i2C lub SPI

14. Omów zasadę komputerowej symulacji procesów ciągłych

Procesy ciągłe to takie, w których wszystkie zmienne stanu określone są w każdej chwili czasu. Celem symulacji komputerowej jest odtworzenie przebiegu badanego procesu na podstawie jego modelu matematycznego. Badany jest wpływ otoczenia oraz wewnętrznych właściwości obiektu na jego charakterystyki. Tworzenie symulacji polega na kolejnych krokach: 1. Napisać równania różniczkowe opisujące obiekt 2. Dobrać odpowiedni krok symulacji 3. Dobrać metodę całkowania np. metoda prostokątów, trapezowa lub metodę rozwiązywania równań różniczkowych np. Rungego-Kutty 4. Dobrać czas symulacji. Podczas symulacji należy zwrócić uwagę na: - Czas symulacji - Dostępną pamięć operacyjną i moc obliczeniową - Charakterystykę wykorzystywanego oprogramowania - Czas i wysiłek wymagany do zrealizowania założeń. Symulacja komputerowa jedynie przybliża faktyczne zachowanie układu ciągłego ze względu na skończoną częstotliwość próbkowania. Wyniki symulacja i eksperymentu mogą dawać inne rezultaty, ponieważ: - Wybrany został zbyt duży krok symulacji - Komputery korzystają z liczb zmiennoprzecinkowych o skończonej dokładności. - Równania, którymi modeluje się układ zazwyczaj zawierają pewne przybliżenia. Model którego stopień złożoności wykracza poza możliwości kosztowe jest bezużyteczny. Program realizujący model nie powinien być identyfikowany z realizowanym modelem.

22. Omów właściwości i zastosowania podstawowych założeń pradygmatu obiektowego (abstrakcja, hermetyzacja, polimorfizm, dziedziczenie)

Programowanie obiektowe - paradygmat programowania, w którym programy definiuje się za pomocą obiektów - elementów łączących stan (dane) i zachowanie (procedury). Obiektowy program komputerowy wyrażony jest jako zbiór takich obiektów, komunikujących się pomiędzy sobą w celu wykonywania zadań. Największym atutem programowania, projektowania oraz analizy obiektowej jest zgodność takiego podejścia z rzeczywistością -mózg ludzki jest w naturalny sposób najlepiej przystosowany do takiego podejścia przy przetwarzaniu informacji. Abstrakcja Uogólnienie problemu mające na celu wyizolowanie jego kluczowych aspektów. Polega ona na wyodrębnieniu zakresu cech wspólnych obiektów oraz manipulowanych, które są jednocześnie niezależne dla poszczególnych obiektów. Założenie to pozwala na zwiększenie ogólności programu. Hermetyzacja Ukrywanie pewnych danych składowych lub metod obiektów danej klasy tak, aby były one dostępne tylko metodom wewnętrznym Wyodrębnia interfejs -ukrywa przed użytkownikiem sposób, w jaki klasa wewnętrznie realizuje swoje zadanie. Posiadając zdefiniowany interfejs programista klasy ma pełną swobodę implementacji mechanizmu, w jaki klasa będzie wykonywała swoje zdanie Uodparnia tworzony model na błędy polegające np. na błędnym przypisywaniu wartości oraz umożliwia wykonanie czynności pomocniczych (jak np. pobranie z konta 10% wypłacanej kwoty jako prowizji) lub obsługę sytuacji wyjątkowej (np. brak wymaganych środków). Lepiej oddaje rzeczywistość - operacje wykonywane np. na koncie bankowym identyfikowane są odpowiednimi nazwami wykonywanej operacji, podczas gdy samo odwoływanie się do pewnej zmiennej nie dawałoby odwzorowania rzeczywistości Polimorfizm Mechanizm pozwalający na używanie elementów programowania obiektowego na kilka różnych sposobów. Pozwala pisać ogólne struktury danych i algorytmy, bez precyzowania na jakich dokładnie typach one operują i bez konieczności dostarczania implementacji odpowiednich dla każdego przypadku. Dziedziczenie Mechanizm współdzielenia funkcjonalności między obiektami. Obiekt danej klasy może dziedziczyć atrybuty oraz metody innej klasy rozszerzając w ten sposób zakres swojej funkcjonalności. Z jednej klasy bazowej można uzyskać dowolną liczbę klas pochodnych. Podstawowym zastosowaniem dziedziczenia jest ponowne wykorzystanie kodu. Jeśli dwie klasy wykonują podobne zadania, możemy utworzyć dla nich wspólną klasę bazową, do której przeniesiemy identyczne metody oraz atrybuty. Ułatwia to testowanie, potencjalnie zwiększa niezawodność aplikacji w przypadku zmian, a w razie ewentualnych problemów łatwiej jest również odnaleźć przyczynę błędu.

5. Podaj definicję oraz przynajmniej dwa kryteria sterowalności obserwowalności liniowych obiektów dynamicznych. Omów syntezę obserwatora stanu.

Rozważając układ opisany równaniami: ẋ(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) Układ jest całkowicie sterowalny wtedy, jeśli dla każdego dowolnego stanu początkowego x₀ istnieje takie sterowanie, które w skończonym czasie przeprowadzi wszystkie zmienne stanu układu do zera. Kryteria sterowalności: - Rząd macierzy sterowalności M = [ B AB A^2B ... A^n-1B] jest równy rzędowi macierzy A równań stanu - Jeżeli macierz A jest diagonalna to macierz B nie ma wierszy zerowych. Układ jest całkowicie obserwowalny wtedy, jeśli dla każdego stanu początkowego x₀ znajomość funkcji wejścia oraz wyjścia obiektu, dla dowolnego ograniczonego dowolnego czasu obserwacji pozwala na jednoznaczne określenie stanu początkowego Kryteria obserwowalności: - Rząd macierzy obserwowalności M = [ C / CA / CA^2 / ... / CA^(n-1) ] jest równy rzędowi macierzy A równań stanu. - Jeżeli macierz A jest diagonalna to macierz C nie ma kolumn zerowych Obserwator stanu - to model układu rzeczywistego, który wykorzystując pomiary wejść i wyjść tego układu dostarcza estymaty wewnętrznego stanu układu. Synteza obserwatora stanu: Układ obserwatora pozwala odtworzyć niemierzalne zmienne stanu na podstawie wymuszenia u(t) i odpowiedzi y(t) (Dziwne równania)

23. Omów technikę SLAM wykorzystującą rozszerzony filtr Kalmana

SLAM - simultaneous localization and mapping to zagadnienie odnoszące się do jednoczesnego lokalizowania i mapowania przestrzeni robota. Technika SLAM jest wykorzystywana w środowisku, gdy poruszający się robot znajduje się w nieznanym dla siebie środowisku. Przy pomocy dostępnych czujników robot zbiera informacje o własnej pozycji oraz obserwacje dotyczące środowiska, w jakim się znajduje. Wszystkie zbierane przez robota dane są obarczone błędami, stad modele opisujące zarówno ruch, jak i obserwacje, są opisywane przez rozkłady prawdopodobieństwa. Wynikiem działania algorytmu SLAM jest estymata ścieżki przebytej przez robota oraz estymata mapy otoczenia po jakim się poruszał. Algorytm ten pozwala na eksplorowanie środowiska bez nadzoru człowieka na przykład głębin morskich, starych kopalń, marsa, lub miejsc niebezpiecznych. Przebyta przez robota ścieżka jest wyznaczona w sposób dyskretny, tzn ścieżkę reprezentuje skończony zbiór pozycji. Punkty ścieżki oraz zaobserwowane znaczniki tworzą sieć połączeń. W miarę zbierania dalszych informacji poprzednio znalezione znaczniki są ponownie obserwowane, pozwalając w ten sposób zmniejszyć błędy powstałe przy wyznaczaniu położenia tychże znaczników, a co za tym idzie również pozycji robota Z probabilistycznego punktu widzenia rozróżniamy 2 podejścia: - Online SLAM estymowana jest bieżąca pozycja robota wraz z budowaną mapą - Full SLAM estymowana jest cała dotychczasowa ścieżka robota wraz zbudowaną mapą W SLAM stosowane są różne metody samolokalizacji robota. Np. Aktywne latarnie kierunkowe, rozpoznawanie sztucznych i naturalnych znaczników, lub metody odometryczne i inercyjne Filtr Kalmana jest to rekurencyjny sposób wyznaczania minimalno wariacyjnej estymaty stanu procesu. Stosowany jest on gdy stan systemu nie może być jednoznacznie wyznaczony, lub gdy pomiar stanu jest zakłócony Filtr Kalmana realizuje estymacje stanu w kolejnych momentach czasowych, a następnie dokonuje korekty wyznaczonej estymaty wykorzystując obserwacje. Obserwacje stanowią pomiary, które są znacznie dokładniejsze, niż wyznaczona estymata stanu, chociaż także obarczone błędami. Równania, składające sie na filtr Kalmana, można podzielić na dwie grupy: fazę predykcji oraz fazę korekcji. Równania fazy predykcji wyznaczają zmianę stanu systemu w czasie, obliczając nowe wartości estymaty stanu oraz macierzy kowariancji stanu, wykorzystując dostępny model systemu. Macierz kowariancji stanu wyliczana jest za pomocą oszacowań błędów estymat stanu (błędy bowiem wynikają z szumów, które nie są dokładnie znane). Fazy predykcji i korekcji są wykonywane cyklicznie, w każdej iteracji algorytmu, a nowo obliczone wartości stają się wejściowymi w następnej iteracji. Ukazuje to rekurencyjna naturę filtru Kalmana. Metody lokalizacji robota są bardzo niedokładne, co stanowi analogię do zakłóconej estymaty stanu układu. Z drugiej strony robot wyposażony jest w bardzo dokładne czujniki do pomiaru środowiska. W odniesieniu do filtru Kalmana, dane pochodzące z czujników zewnętrznych można uznać za znacznie dokładniejsze i za ich pomocą realizować obserwację. Analogia pomiędzy filtrem Kalmana, a zadaniem SLAM, nie jest jednak całkowita. W celu wykorzystania filtru Kalmana w zadaniach SLAM, niezbędne jest rozszerzenie algorytmu na potrzeby systemów nieliniowych W rozszerzonym filtrze Kalmana przeprowadza sie linearyzacje przez rozwiniecie funkcji nieliniowych w szereg Taylora. EKF stała się podstawą pierwszego algorytmu SLAM. EKF w fazie predykcji wykorzystuje pomiary z odometrów, natomiast w fazie korekcji, dane z dalmierzy laserowych robota. Pomimo dobrych rezultatów, jakie można uzyskać z wykorzystaniem tej metody, EKF ma kilka istotnych ograniczeń. Po pierwsze, pojedyncza aktualizacja estymaty stanu wymaga czasu proporcjonalnego do kwadratu liczby rozpoznanych znaczników, co czyni te metodę trudna do zastosowania w czasie rzeczywistym, w bardzo dużych środowiskach. Ponadto, rzadko mamy do czynienia z dokładnymi modelami opisującymi odczyty z czujników, czy model ruchu. Dowiedzione zostało, że w przypadku naruszenia któregoś z tych założeń, algorytm EKF może nie być zbieżny. Innym ograniczeniem tego podejścia jest niemożność reprezentacji wielomodalnego rozkładu pozycji robota, które często pojawia się.

13. Omów metody badania stabilności liniowych układów ciągłych/dyskretnych

Stabilność w sensie BIBO (Bounded Input - Bounded Output) - dla dowolnego pobudzenia o skończonej wartości odpowiedź układu jest również skończona. Stabilność asymptotyczna dla układów autonomicznych - dla dowolnego skończonego w czasie i ograniczonego co do wartości pobudzenia, układ bez zewnętrznego sterowania w czasie dążącym do nieskończoności powróci do stanu równowagi. Stabilność wewnętrzna - układ BIBO-stabilny dla każdej możliwej pary wejście-wyjście, w transmitancji nie występują skreślenia niestabilnych zer z niestabilnymi biegunami Metody badania stabilności można podzielić na 2 przypadki: 1. Gdy znany jest model matematyczny układu 2. Gdy nie znamy modelu i jedynie możliwe jest pobudzanie układu i badanie odpowiedzi takiego obiektu Kryteria dla znanego modelu obiektu: 1. Badanie położenia miejsc zerowych równania charakterystycznego - jeśli wszystkie są w lewej otwartej półpłaszczyźnie zespolonej to układ jest stabilny, jeden biegun na osi urojonej - na granicy stabilności, dwa lub więcej biegunów na osi urojonej - układ niestabilny, 2. Badanie stabilności na podstawie charakterystyk częstotliwościowych - odczyt zapasu wzmocnienia i fazy z charakterystyk Bodego. Jeśli nie ma zapasu wzmocnienia i fazy to układ jest niestabilny, gdy zapasy są równe zero to na granicy stabilności, 3. Macierzowe Kryterium Routha lub Hurwitza - Sprawdzenie czy wszystkie współczynniki równania char. istnieją i mają ten sam znak - Jeśli tak to tworzona jest macierz Routha - dla tablicy Routha liczba zmian znaku wartości w pierwszej kolumnie tablicy jest równa liczbie biegunów niestabilnych. 4. badanie odpowiedzi impulsowej - jeśli odpowiedź impulsowa jest bezwzględnie sumowalna to układ jest stabilny. Jeżeli nie znany jest opis modelu możemy: wykorzystać kontur Nyquista w celu zbadania stabilności układu objętego jednostkową pętlą sprzężenia zwrotnego. Dotyczy układów minimalnofazowych (liniowy + przyczynowy + niezmienniczy + stabilny) 1. Podanie na wejście układu nieobjętego pętlą sprzężenia zwrotnego sygnału sinusoidalnego, 2. Dla badamy amplitudę i przesunięcie fazowe sygnału wyjściowego, 3. Po otrzymaniu konturu sprawdzamy czy obejmuje on punkt (-1,0) - tak to układ jest niestabilny, gdy przecina to na granicy stabilności, nie obejmuje to stabilny. W przypadku układów nieminimalnofazowych: jeśli układ otwarty jest niestabilny i ma m biegunów w prawej półpłaszczyźnie to układ zamknięty jest stabilny gdy kontur Nyquista okrąża punkt (-1,0j) razy przeciwnie do ruchy wskazówek zegara.

19. Na czym polega praca sterownika w czasie rzeczywistym i jakie są techniki jej realizacji

Sterownik musi spełniać rygorystyczne wymagania czasowe dotyczące maksymalnego czasu -Reakcji na określone zdarzenie zewnętrzne -Realizację określonych zadań programowych Poprawność wyniku zależy nie tylko od logicznej poprawności samych obliczeń, ale także od czasu, w jakim został uzyskany wynik. Techniki programowej realizacji pracy sterownika w czasie rzeczywistym. - Programy sekwencyjne, gdzie rezultat programu zależy od podejmowanych akcji i ich wzajemnej kolejności - System przerwań w sytuacji gdy system działa w trybie normalnym i pojawia się przerwanie o wysokim priorytecie, tzn. krytyczno czasowe, następuje obsługa tego przerwania i przydzielenie mu zasobów. - Wielozadaniowość systemu pozwala na dekompozycje programu na szereg współbieżnie wykonywanych zadań. Sekwencyjność wykonywanych akcji może być nadal istotna - Programy czasu rzeczywistego, w których czas podejmowania konkretnych akcji nie jest zdeterminowany przez konstruktora, ale przez procesy zachodzące w otoczeniu. Praca sterownika jest realizowana w zamkniętej pętli sprzężenia zwrotnego. Przetwarzane są sygnały wejściowe w oparciu o zdefiniowany algorytm i generowane są sygnały wyjściowe zarządzające procesem. Współpraca mikrosterownika z otoczeniem w czasie rzeczywistym wymaga odliczania czasu lub generowania złożonych sekwencji binarnych. Jest to realizowane przez specjalizowane bloki nazywane licznikami (counters) lub układami czasowymi (timers) z dokładnością oscylatora kwarcowego mikrosterownika. Cykl pracy sterownika można opisać sekwencyjnie - Autodiagnostyka - Odczyt wejść - Wykonanie programu - Zadania komunikacyjne - Ustawienie wyjść

15. Omów budowę programowalnych sterowników logicznych i wskaż typowe moduły z których się one składają.

Sterowniki programowalne PLC - komputery przemysłowe sterujące pracą maszyn i urządzeń w układzie otwartym i zamkniętym oraz nadzorujące procesy technologiczne. Muszą być przystosowane do pracy ciągłej 24h/dobę w warunkach przemysłowych: wysokiej wilgotności, bez klimatyzacji, w obecności zakłóceń elektrycznych. Cechy fizyczne: - Łatwe w montażu - Możliwa szybka wymiana modułów w przypadku usterki - Prostota obsługi oraz konserwacji - Małe wymiary W przypadku mało wymagających zastosowań stosuje się kompaktowe sterowniki PLC, zawierające podstawowe bloki funkcyjne zintegrowane w jednej obudowie. W zastosowaniach przemysłowych stosuje się modułowe sterowniki PLC, które pozwalają na dowolne zestawienie urządzeń peryferyjnych. Typowe moduły sterownika PLC: - Zasilacz - Jednostka centralna składająca się z: Procesora, Pamięci RAM,ROM i FLASH, Zegara - Wejścia/wyjścia cyfrowego 24V DC lub 120V AC - Wejścia/wyjścia analogowego 4-20mA 0- +-10V - Moduły komunikacyjne - Magistrala systemowa

30. Opisz elastyczne systemy produkcyjne, ich strukturę, urządzenia i zalety

System produkcyjny - układ elementów składowych, relacji między tymi elementami i zasad przekształcania czynników wejścia do systemu na czynniki wyjścia z systemu. Stanowi zatem celowo zaprojektowany i zorganizowany układ materialny, energetyczny, informacyjny, eksploatowany przez człowieka, służący produkowaniu określonych produktów (dobra materialne i usługi). Elastyczność - zdolność systemu do produkcji wielu różnych wyrobów i szybkiego przestawiania się z wytwarzania jednego rodzaju wyrobu na drugi, czyli łatwe przystosowanie procesów do pojawiających się nowych zadań i zachodzących zmian. Elastyczne Systemy Produkcyjne ESP (ang. Flexible Manufacturing Systems FMS) to zespół urządzeń wytwórczych (np.: obrabiarek sterowanych numerycznie), zintegrowanych poprzez zautomatyzowany transport, magazynowanie oraz wspólne sterowanie komputerowe. Rodzaje maszyn i urządzeń w ESP - urządzenia wytwórcze to maszyny lub systemy montażowe z automatyczną wymianą narzędzi ze stałym lub wymiennym magazynkiem - urządzenia transportowe to wszelakiego typu maszyny zautomatyzowane zdolne do manipulacji produktem - urządzenia magazynowe. Obecnie najczęściej wykorzystywane są magazyny centralne i lokalne oraz przystanowiskowe magazyny narzędzi. - sterowanie komputerowe to scentralizowany lub rozproszony układ sterowania kontrolujący operacje produkcyjne, transportowe i magazynowania. Sieci komputerowe obejmują również funkcję dyspozycji, kontroli i sygnalizacji zdarzeń w powiązaniu z urządzeniami diagnostycznymi. Formy ESP w zależności od poziomu złożoności: - Elastyczny moduł produkcyjny to centrum obróbkowe z lokalnym magazynkiem buforowym - Elastyczne gniazdo produkcyjne to zespół modułów produkcyjnych o zintegrowanym sterowaniu, transporcie i magazynowaniu w celu realizacji grupy zadań produkcyjnych. Ustawienie modułów jest grupowe lub kołowe w bliskiej odległości wzajemnej. Rozwiązanie to jest stosowane dla procesów operacjach równoległych. - Elastyczna linia produkcyjna stosowana jest dla procesów o operacjach szeregowych. Wyposażona jest w zbiór specjalistycznych maszyn rozmieszczonych w określonym porządku. - Elastyczna sieć produkcyjna to złożona forma, składająca sięz kilku powiązanych modułów, gniazd i linii produkcyjnych, umożliwiająca pełną realizację produkcji określonego asortymentu wyrobów. Występuje na poziome wydziału produkcyjnego Zalety ESP - Wzrost stopnia wykorzystania środków trwałych - Niższe koszty wyposażenia - zmniejszenie kosztów robocizny bezpośredniej - zmniejszenie zapasów robót w toku oraz cykli produkcyjnych - szybkie reagowanie na zmienne zadania produkcyjne - odporność na zakłócenia wewnętrzne - wzrost jakości produkowanych wyrobów - wzrost wydajności - łatwość rozbudowy systemu

10. Omów twierdzenie o próbkowaniu i jego zastosowanie w układach sterowania

Twierdzenie o próbkowaniu mówi, ze sygnał ciągły o skończonym widmie można odtworzyć na podstawie jego próbek tylko i wyłącznie wtedy, gdy częstotliwość próbkowania była co najmniej dwa razy większa od najwyższej częstotliwości składowej w sygnale - fp 2B, gdzie B częstotliwość graniczna widma. Częstotliwość Nyquista - maksymalna częstotliwość składowych widma sygnału ciągłego, które mogą być odtworzone z ciągu próbek bez zniekształceń. Składowe sygnału o częstotliwościach wyższych od częstotliwości Nyquista ulegają podczas próbkowania nałożeniu na składowe o częstotliwościach niższych, co powoduje utratę informacji o próbkowanym sygnale - aliasing. Zapobieganie aliasingowi: - Odpowiednio wysoka częstotliwość próbkowania - Ograniczenie widma sygnału analogowego filtrem Twierdzenie to jest stosowane na przykład gdy obiekt analogowy jest sterowany za pomocą sterownika cyfrowego. Wtedy: - Próbkowanie musi być na tyle szybkie żeby sterownik nadążył za obiektem i zarejestrował wszystkie zmiany zachodzące w układzie. - Na tyle wolne żeby nie zużywać niepotrzebnie energii i nie podnosić kosztu urządzeń. Zbyt szybkie taktowanie może też prowadzić do zbyt małych zmian wartości sygnału pomiędzy kolejnymi próbkami. Twierdzenie o próbkowaniu stosuje się we wszystkich procesach polegających na przekształceniu sygnału analogowego na cyfrowy.

11. Omów zasady projektowania układów cyfrowych

Układy cyfrowe dzielą się na 2 kategorie: Układy kombinacyjne - stan wyjść w danym momencie zależy tylko i wyłącznie od stanu wejść w tym samym momencie. Nie posiadają pamięci. Układy sekwencyjne - stan wyjść zależy od wejść i od wewnętrznego stanu układu. Informacje o stanie wewnętrznym przechowywane w elementach z pamięcią (najczęściej przerzutnikach). Synchroniczne - zmiana stanu wewnętrznego w określonych chwilach czas (sygnał zegarowy), asynchroniczne - natychmiast po zmianie sygnałów wejściowych Etapy projektowania układów cyfrowych: 1. Opis słowny 2. Opis formalny działania układu: Tablica prawdy - wszystkie stany wejściowe i odpowiadające im wyjścia Graf - informacja o stanach oraz przejściach między nimi (sekwencyjne) Układ Mealy'ego - wyjście jest funkcją stanu wewnętrznego i sygnałów wejściowych Układ Moore'a - wyjście jest funkcja stanu wewnętrznego 3. Minimalizacja - zredukowanie liczby elementów (funktorów) potrzebnych do budowy układu ( zwiększenie niezawodności, zmniejszenie ilości ciepła i kosztów) Tablica Karnought'a, gdzie indeksy wierszy i kolumn są poszczególnymi stanami wejściowymi zapisanymi w kodzie Greya. Każde z pól tablicy przyjmuje wartość wyjściową Minimalizacja względem jedynek, żeby otrzymać iloczyn sum NOR lub względem zer, aby otrzymać sumę iloczynów NAND Stany nieokreślone Optymalizacja grup 4. Wybranie elementów do budowy układu oraz zaprojektowanie schematu montażowego 5. Produkcja układu, testy, usunięcie błędów Należy wziąć pod uwagę hazardy, czyli błędne stany na wyjściu spowodowane różnym czasem propagacji sygnałów - tworzy się dodatkowe grupy w tablicach Karnought'a Wyścigi, które pojawiają się w momencie jednoczesnej zmiany kilku sygnałów wejściowych, mogą spowodować nieokreślony stan przejściowy układu, powodując złą jego pracę.

9. Wymień dyskretne modele i własności liniowych układów dynamicznych. Podaj definicję i przedstaw zastosowanie transformaty Z.

Układy dyskretne to takie, w których wszystkie sygnały są dyskretne czasowo ( przyjmują określone wartości tylko w określonych chwilach czasu) Dyskretne modele: - Transmitancja zespolona - Model stanowy - Równania różnicowe - Graf - Odpowiedź impulsowa Układy nierekursywne - układy, które nie posiadają sprzężenia zwrotnego. Ich wyjścia zależą tylko od wejść. Jeżeli układ jest liniowy, przyczynowy i niezmienniczy, to można go przedstawić w postaci sumy przemnożonych przez odpowiednie współczynniki przeszłych próbek wejściowych. układy takie nazywamy FIR, które: są zawsze stabilne, mają liniową char. fazową, są łatwe w projektowaniu Układy rekursywne - to układy, które posiadają sprzężenie zwrotne od wyjścia, tzn. wyjście zależy zarówno od próbek sygnału wejściowego, jak i poprzednich wartości wyjściowych. Jeżeli układ rekursywny jest liniowy, niezmienniczy i przyczynowy to nazywamy go IIR. Układy te mają pętlę sprzężenia zwrotnego i mogą być niestabilne Transformata Z to dyskretne liniowe przekształcenie służące do rozwiązywania liniowych układów równań różnicowych. Wzór na obliczenie transformaty Własności transformaty Z: - Liniowość - Przesunięcie sygnału o m próbek odpowiada przemnożeniu transformaty przez z^m - splot w dziedzinie czasu odpowiada mnożeniu transformat - Skalowalność Zastosowania transformaty Z: - Umożliwia przechodzenie pomiędzy różnymi formami opisu np. odp. impulsowa -> transmitancja, transmitancja -> równanie różnicowe - Wyznaczanie odpowiedzi układu na pobudzenie bez potrzeby realizacji splotu - Charakterystyki częstotliwościowe układu - podstawiając do transmitancji za z e^jw możemy określić Amplitudę (moduł z takiej transmitancji) Fazę - obliczenie argumentu

26. Omów ontologie jako środek wyrażania wiedzy o świecie

Upraszczając - ontologia jest modelem opisującym pojęcia i ich wzajemne powiązania czyli modelem reprezentacji wiedzy. Dość powszechnie pod pojęciem „ontologia" rozumie się zbiór ściśle zdefiniowanych pojęć (słownictwo) na temat określonej dziedziny (domeny) akceptowany przez społeczność związaną z ową dziedziną. Druga definicja pochodzi z artykułu Thomasa Grubera, po którym ontologie zaczęły nabierać większego znaczenia: „ontologia to wyraźny, formalny opis konceptualizacji wybranej dziedziny" Ontologie dzielimy na ze względu na stopień formalizacji. NIEFORMALNE - predefinowane słownictwo - słowniki - tezaurusy - taksonomie FORMALNE - ontologie oparte na danych - ontologie oparte na logice Ze względu na zakres stosowania ontologii wyróżnia się: - Ontologie wysokiego poziomu - Ontologie dziedzinowe - Ontologie aplikacyjne Ontologie mają zastosowanie przede wszystkim w zagadnieniach związanych ze sztuczną inteligencją. Przykładem mogą być wszelkie systemy agentowe, które dostarczają sztucznej inteligencji dane, informacje, czy wiedzę, jako pewne impulsy wejściowe potrzebne do wypełniania postawionych przed sztuczną inteligencją zadań. W tego typu systemach dane często są przedstawione w sposób łatwy do zrozumienia dla człowieka, lecz niekoniecznie dla programu komputerowego. Ontologie stanowią wówczas warstwę pośrednią, umożliwiającą uporządkowanie posiadanych i pozyskiwanych danych i informacji w wiedzę Ontologie tworzone są, aby: - Szerzyć wspólne zrozumienie struktury informacji wśród ludzi lub aplikacji agentowych - Umożliwić wielokrotne wykorzystanie wiedzy z danej dziedziny - Otwarcie sprecyzować założenia odnośnie wybranej dziedziny - Rozdzielić wiedzę o dziedzinę od wiedzy związanej z operowaniem dziedziną - analizować wiedzę o konkretnej dziedzinie Języki projektowania ontologii LOOM - - język wysokiego poziomu i środowisko do tworzenia systemów ekspertowych. Reprezentacji wiedzy służą w LOOM: definicje, reguły, fakty oraz wbudowane reguły. Mechanizm dedukcji, zwany klasyfikatorem, korzystający m.in. z wnioskowania wprzód, jest uważany za jedno z ciekawszych rozwiązań w modelowaniu ontologi RDF - Resource Description Framework - służy reprezentacji informacji o zasobach WWW. Pojęcie zasobu WWW jest przez RDF rozumiane na tyle szeroko, że język nie zamyka się wyłącznie na opis tego, co w Internecie można znaleźć, ale też można nim opisywać byty, o których na stronach WWW zamieszczono informacje. Składnia języka RDF pozwala na budowę zdań złożonych z trzech elementów: zasobu (podmiot), własności (orzeczenia) i obiektu (dopełnienia). XML - Extended Markup Language - nie jest językiem powstałym z myślą o tworzeniu ontologii. Jednak jest uniwersalny, coraz bardziej powszechny i wykorzystywany przez inne języki opisu ontologii (np. RDFS, XOL)

17. Scharakteryzuj metody i środki wspomagające uruchamianie i testowanie układów mikroprocesorowych

Uruchamianie programów mikrosystemu jest procesem eliminacji błędów i wprowadzania zmian do programu użytkowego w celu uzyskania bezbłędnej i zgodnej z założeniami pracy systemu w danym zastosowaniu. Jest to trudne, ponieważ: - Mikrokontrolery mają wiele wbudowanych bloków funkcjonalnych, do których dostęp w czasie pracy systemu jest utrudniony lub niemożliwy. - Sterowniki z wbudowanymi mikrokontrolerami są przeznaczone do pracy w czasie rzeczywistym. Testowanie zaś takiego systemu we współpracy z rzeczywistym otoczeniem, bez naruszania relacji czasowych sygnałów, wymaga narzędzi diagnostycznych, nie zakłócających pracę systemu. Testowanie takich układów można podzielić na: 1. Testowanie bez wykorzystania systemu docelowego (symulator): - Symulacja programowa jednostki centralnej, czasem też urządzeń peryferyjnych. - Emulator sprzętowy mikrokontrolera - umieszczenie sondy na podstawie uC, połączonej z układem sprzętowym emulującym działanie uC Zalety: nie potrzeba dysponować docelowym systemem Wady: Ostateczną weryfikację można dokonać dopiero w systemie docelowym 2. Testowanie z wykorzystaniem systemu docelowego: - Metoda empiryczna wielokrotnego programowania uC, obserwacja działania programu i korekcja na podstawie obserwacji - Użycie monitorów programowych i programów śledzących. Monitory są instalowane w pamięci programu uC i kontrolują wykonanie właściwego programu, komunikują się z systemem przez łącze szeregowe. Debuggery pracujące w przyłączonych do systemu komputerach PC - Specjalne wewnętrzne zasoby uC, Niektóre uC posiadają specjalne zasoby wspierające uruchamianie programu. Oferują one wszystkie możliwości, co emulator sprzętowy np. zastawianie pułapek oraz pracę krokową. Są one dostępne tylko na etapie uruchamiania i nie są wykorzystywane przez normalny program.

3. Scharakteryzuj dwa podstawowe zadania realizowane w układach sterowania automatycznego (regulacji) - zadanie przestawiania oraz zadanie nadążania.

Zadanie przestawiania - czyli regulacja polegająca na przestawieniu układu do danego położenia np. winda - Względnie rzadkie nagłe zmiany położenia w krótkim czasie - Znaczący wpływ zakłóceń - Żądanie małego uchybu sterowania, oraz odpowiedniego małego czasu ustalania Zadanie nadążania - czyli śledzenie obiektu przez układ automatyki - Wielkość zmienia się często w narastający sposób - Zakłócenia nie są krytyczne - Żądanie zapewnienia małego uchybu sterowania w rozciągniętym czasie trwania sterowania. Do takich rozwiązań można zastosować sterownik PID, który składa się z 3 członów: P (proportional) proporcjonalny człon zwracający sygnał proporcjonalny do wartości uchybu w czasie I (integral) całkujący człon zwracający sygnał proporcjonalny do sumy uchybu w czasie, zwiększa dokładność sterowania. D (derivative) różniczkujący człon zwracający sygnał proporcjonalny do szybkości zmian uchybu, stosowany w układach szybkozmiennych zapewnia likwidację przeregulowania o spowolnienia układu

25. Podaj kompletny opis technologii, narzędzi oraz metod pozwalających na zrealizowanie regułowo-rozmytego systemu wspomagania decyzji

Zbiór rozmyty Rozmyty podzbiór F zbioru X może być zdefiniowany, jako odwzorowanie elementów zbioru X w elementy zbioru [0, 1] Gdzie wartość 0 określa całkowite, niezawieranie się elementu w zbiorze (Maluch w zbiorze luksusowych aut) 1 określa całkowita przynależność do zbioru (porche w zbiorze luksusowaych aut) 0.5, średnią przynależność (auto będące średnią klasą). Operacje możliwe do realizacji na zbiorach rozmytych - Zawieranie zbiorów - Równość zbiorów - Iloczyn zbiorów - Suma zbiorów - Negacja (dopełnienie) zbioru - iloczyn (produkt) kartezjański zbiorów - suma (koprodukt) kartezjański zbiorów - koncentracja zbioru - rozcieńczenie zbioru Kolejnym elementem systemów rozmytych są relacje rozmyte Relacje w klasycznej teorii zbiorów określa się za pomocą zbioru elementów, par elementów, trójek elementów, itd. Zbiory te określają odpowiednio, relacje unarne (jednoczłonowe), binarne i ogólnie n-arne. Podobnie, zbiór rozmyty reprezentuje relację rozmytą. Funkcja przynależności relacji rozmytej określa stopień zachodzenia relacji. System rozmyty do określania wyjść systemu wykorzystuje wnioskowanie rozmyte. We wnioskowaniu rozmytym wykorzystuje się: - Przesłanki oraz fakty - Implikacje - Skąd wysuwane są wnioski Projektowanie układów sprowadza się do zdefiniowania operacji wykonywanych w poszczególnych krokach. 1. Fuzzyfikacja wejść Polega ona na określeniu stopnia przynależności danej wartości wielkości wejściowej do każdego z odpowiadających jej zbiorów rozmytych pokrywających zakres możliwych wartości wejściowych (np. do jakiego stopnia temperatura jest niska, a do jakiego średnia). Operacja ta sprowadza się do obliczenia funkcji lub wyszukiwania odpowiednich wartości w tabelach. 2. Zastosowanie operatorów logiki rozmytej do określenia stopnia, w jakim spełniona jest przesłanka w każdej z reguł. Wartościami wejściowymi są wartości przynależność sfuzzyfikowanych wejść, na których wykonywane są rozmyte operacje logiczne (AND, OR itp.) tworzące przesłankę. Jako wynik otrzymuje się pojedynczy poziom prawdy spełnienia przesłanki. 3. Zastosowanie metody implikacji. Operacja ta sprowadza się do zmiany kształtu funkcji przynależności zbioru rozmytego konkluzji zgodnie z poziomem prawdy spełnienia przesłanki (przez obcięcie lub skalowanie). Dodatkowo przesłance każdej z reguł można nadać wagę z zakresu od 0 do 1 wyrażającą jej ważność w porównaniu z innymi. Wynikiem operacji są zbiory rozmyte odpowiadające każdej wielkości wyjściowej występującej w konkluzji. 4. Agregacja wszystkich wyjść Polega ona na połączeniu dla każdej wielkości wyjściowej odpowiadających jej zbiorów wyjściowych ze wszystkich reguł w jeden zbiór rozmyty. Na wejściu procesu agregacji mamy listę obciętych lub przeskalowanych w wyniku implikacji funkcji przynależności danej wielkości wyjściowej w poszczególnych regułach (niekoniecznie wszystkich) 5. Defuzzyfikacja Polega na wyznaczeniu konkretnej wartości dla każdej wielkości wyjściowej ze zbioru rozmytego otrzymanego po agregacji. Najczęściej stosowaną metodą defuzzyfikacji jest obliczanie środka ciężkości obszaru pod krzywą zagregowanej funkcji przynależności. Inne możliwości to średnia maksimów funkcji zbioru wyjściowego, wybór największego lub najmniejszego z maksimów czy metoda biselekcji. W układach Sugeno defuzyfikacja polega na prostym wyznaczeniu średniej ważonej singletonów wyjściowych. STEROWANIE ROMYTE Zastosowanie teorii zbiorów rozmytych do sterowania procesów technologicznych nie wymaga znajomości modeli tych procesów. Należy jedynie sformułować reguły postępowania w formie rozmytych zdań warunkowych typu IF ... THEN .... Zastosowania zbiorów rozmytych obejmują obecnie całą gamę zagadnień - od prostych urządzeń domowego użytku (pralki, lodówki, odkurzacze) do bardziej złożonych systemów, np. nadzorujących wentylację tuneli podziemnych lub wspomagających produkcję alkoholu japońskiego sake.


Related study sets

Civics Notes Chapter 9 The Executive Branch (9th Grade Civics) part two

View Set

quiz and lesson for chapters 11-13

View Set

Intg Bus Policy/Strategy CH 5-7 Quiz questions

View Set

Chapter 4- The Flow of Food: An introduction

View Set

Perspectives of Psychology Ch.10 - Intelligence, Problem Solving, and Creativity

View Set

Chapter 2: CSR and Citizenship quiz

View Set