Funkcja moving average model autocorrelation
Cel: Sprawdzenie losowości Autokorelacje (Box i Jenkins, s. 28-32) są powszechnie używanymi narzędziami do sprawdzania przypadkowości w zbiorze danych. Ta losowość jest określana przez obliczanie autokorelacji wartości danych przy różnym opóźnieniu czasowym. Jeśli są losowe, takie autokorelacje powinny być bliskie zera dla dowolnego i wszystkich odstępów czasu. Jeśli nie losowe, to jedno lub więcej autokorelacji będzie znacząco niezerowe. Ponadto wykresy autokorelacji są wykorzystywane w modelu identyfikacji dla modeli autonomicznych Box-Jenkins, poruszających się średnich serii czasowych. Autokorelacja jest tylko jedną miarą losowości Zauważ, że niepowiązane niekoniecznie oznacza przypadkowe. Dane, które mają znaczną autokorelację, nie są przypadkowe. Jednak dane, które nie wykazują znacznej autokorelacji, mogą nadal wykazywać nieliniowość na inne sposoby. Autokorelacja jest tylko jedną miarą losowości. W kontekście walidacji modelu (co jest głównym typem przypadkowości, którą porozmawiamy w podręczniku), sprawdzenie autokorelacji jest zazwyczaj wystarczającym testem losowości, ponieważ resztki z modeli słabych dopasowań mają tendencję do wyświetlania nietypowych przypadków. Niektóre aplikacje wymagają jednak bardziej rygorystycznej oceny losowości. W tych przypadkach stosuje się baterię testów, która może obejmować sprawdzanie autokorelacji, ponieważ dane mogą być nie losowe w wielu różnych i często subtelnych sposobach. Przykładem, gdzie jest bardziej rygorystyczne sprawdzanie losowości, byłoby testowanie generatorów liczb losowych. Przykładowa tablica: Autokorrelacje powinny być bliskie zeru dla przypadkowości. Taki przypadek nie ma miejsca w tym przykładzie, a zatem nie przynosi założenia losowości. Ten przykładowy wykres autokorelacji wykazuje, że szereg czasowy nie jest przypadkowy, ale ma wysoki stopień autokorelacji między sąsiednimi i sąsiednimi obserwacjami. Definicja: r (h) w stosunku do h Wykresy autokorelacji są tworzone przez oś pionowa: Współczynnik autokorelacji, gdzie C h jest funkcją autokorozmową, a C0 jest funkcją wariancji Zauważ, że R h wynosi od -1 do 1. Zauważ, że niektóre źródła mogą używać następująca formuła funkcji autopodstawowej Chociaż ta definicja ma mniej stronniczości, preparat (1N) ma pewne pożądane właściwości statystyczne i jest najczęściej stosowaną formą w literaturze statystycznej. Szczegółowe informacje można znaleźć na stronach 20 i 49-50 w Chatfield. Oś pozioma: Czas opóźnienia h (h 1, 2, 3) Powyższa linia zawiera również kilka poziomych linii odniesienia. Linia środkowa wynosi zero. Pozostałe cztery linie to 95 i 99 pasm ufności. Zauważ, że istnieją dwa różne wzory do generowania pasm zaufania. Jeśli wykres autokorelacji jest używany do testowania losowości (tj. Nie ma zależności od czasu w danych), zaleca się następujący wzór: gdzie N jest wielkością próbki, z jest zbiorczą funkcją rozkładu standardowego rozkładu normalnego i (alfa ) jest poziom istotności. W tym przypadku pasma ufności mają stałą szerokość, która zależy od wielkości próbki. Jest to formuła stosowana do generowania zespołów ufności w powyższym wykresie. Wykresy autokorelacji są również stosowane w etapie identyfikacji modelu w celu dopasowania modeli ARIMA. W tym przypadku przyjęto wzór średniej ruchomości dla danych i należy wygenerować następujące pasma zaufania: gdzie k jest opóźnieniem, N jest wielkością próbki, z jest zbiorczą funkcją rozkładu normalnego rozkładu normalnego i (alfa) jest poziom istotności. W takim przypadku pasmo ufności wzrasta wraz ze wzrostem opóźnienia. Wykres autokorelacyjny może dostarczyć odpowiedzi na następujące pytania: Czy dane są przypadkowe Czy obserwacja dotyczy sąsiedniej obserwacji Czy obserwacja dotyczy obserwacji dwukrotnie - usunięta (itp.) Czy zaobserwowany szereg czasowy szum biały Czy obserwowany szereg czasowy sinusoidalny Czy zaobserwowany cykl czasowy jest autoregresywny Jaki jest odpowiedni model dla obserwowanej serii czasowej Czy model jest prawidłowy i wystarczający Czy formuła jest prawidłowa ważność Znaczenie: Zapewnienie trafności wniosków inżynieryjnych Losowość (wraz ze stałym modelem, zmienną stałą i rozkładem stałym) jest jeden z czterech założeń, które zazwyczaj stanowią podstawę wszystkich procesów pomiarowych. Założenie przypadkowości jest krytycznie ważne z następujących trzech powodów: Większość standardowych testów statystycznych zależy od losowości. Ważność wniosków testowych jest bezpośrednio związana z ważnością założeń losowych. Wiele powszechnie używanych formuł statystycznych zależy od założenia losowości, przy czym najbardziej powszechna formuła jest wzorem do określenia odchylenia standardowego w próbce: gdzie s jest standardowym odchyleniem danych. Pomimo silnie wykorzystanych wyników, użycie tej wzoru nie ma żadnej wartości, o ile nie zachodzi założenie losowości. W przypadku danych jednoczynnikowych model domyślny jest Jeśli dane nie są losowe, model jest nieprawidłowy i nieprawidłowy, a szacunki parametrów (np. Stałej) stają się nonsensowne i nieprawidłowe. Krótko mówiąc, jeśli analityk nie sprawdza przypadkowości, wówczas ważność wielu statystycznych wniosków staje się podejrzana. Wykres autokorelacji jest doskonałym sposobem na sprawdzenie takiej losowości.2.2 Częściowa funkcja autokorelacji (PACF) Wersja do druku Ogólnie rzecz biorąc, korelacja częściowa jest korelacją warunkową. Jest to korelacja między dwiema zmiennymi przy założeniu, że znamy i uwzględniamy wartości innego zbioru zmiennych. Na przykład rozważmy kontekst regresji, w którym zmienna odpowiedzi y i x 1. x 2. i x 3 są zmiennymi predykcyjnymi. Częściowa korelacja między y i x 3 jest korelacją pomiędzy zmiennymi określonymi biorąc pod uwagę, jak zarówno y, jak i x3 są związane z x 1 i x 2. W regresji tej częściowej korelacji można było znaleźć poprzez korelację reszt z dwóch różnych regresji: (1) Regresja, w której przewidujemy y od x 1 i x 2. (2) regresja, w której przewidujemy x 3 z x 1 i x 2. Zasadniczo korelujemy części y i x 3, które nie są przewidywane przez x 1 i x 2. Bardziej formalnie możemy zdefiniować częściową korelację właśnie opisaną jako Uwaga, że tak też są interpretowane parametry modelu regresji. Pomyśl o różnicy między interpretacją modeli regresji: (y beta0 beta1x2 text y beta0beta1xbeta2x2) W pierwszym modelu 1 może być interpretowany jako zależność liniowa pomiędzy x 2 a y. W drugim modelu, 2 byłoby interpretowane jako liniowa zależność pomiędzy x 2 a y Z zależnością między x i y już uwzględnione. Dla serii czasowej częściowa autokorelacja między x t i x t-h jest definiowana jako warunek korelacji między x t i x t-h. warunek x t-h1. x t-1. zestaw obserwacji, które pochodzą pomiędzy punktami czasu t i th. Automatyczność autokorelacji częściowej pierwszego rzędu będzie określona tak, aby była równa autokorelacji pierwszego rzędu. Autokorelacja częściowa (zwłoki) drugiego rzędu Jest to korelacja pomiędzy wartościami dwóch okresów czasu zależnych od znajomości wartości pomiędzy nimi. (Przy okazji oba wariancje w mianowniku zrównałyby się ze sobą w stacjonarnych szeregach). Częściowa autokorelacja (trzysta) trwa (trwa), a więc tak dalej, dla każdego opóźnienia. Typowo manipulacje macierzy związane z macierzą kowariancji rozkładu wielu zmiennych są wykorzystywane do określania szacunków częściowych autokorelacji. Pewne użyteczne informacje dotyczące wzorców PACF i ACF Często najlepiej jest zidentyfikować model AR z PACF. W modelu AR teoretyczny PACF wyłącza się poza kolejnością modelu. Wyłączenie to oznacza, że w teorii częściowe autokorelacje są równe 0 poza ten punkt. Innym sposobem, liczba niezerowych częściowych autokorelacji daje kolejność modelu AR. Zgodnie z porządkiem modelu rozumiemy najbardziej skrajne opóźnienie x używane jako predykat. Przykład. W lekcji 1.2 zidentyfikowaliśmy model AR (1) dla serii czasowych rocznych światowych trzęsień ziemi o sile sejsmicznej większej niż 7,0. Poniżej przedstawiono próbkę PACF dla tej serii. Warto zauważyć, że pierwsza wartość opóźnienia jest statystycznie znacząca, podczas gdy częściowe autokorelacje dla wszystkich pozostałych opóźnień nie są statystycznie znaczące. To sugeruje możliwy model AR (1) dla tych danych. Identyfikacja modelu MA jest często najlepiej wykonana przy użyciu ACF, a nie PACF. W modelu MA, teoretyczny PACF nie jest wyłączony, ale w pewien sposób zwęża się w stronę 0. Wyraźniejszy wzorzec modelu MA znajduje się w ACF. ACF będzie miało inne niż zerowe autokorelacje tylko w przypadku opóźnień związanych z modelem. W lekcji 2.1 zamieszczono następującą próbkę ACF dla symulowanych serii MA (1). Zauważ, że pierwsza autokorelacja lag jest statystycznie znacząca, podczas gdy wszystkie późniejsze autokorelacje nie są. To sugeruje możliwość modelu MA (1) danych. Teoria notatki. Model stosowany do symulacji to x t 10 w t 0,7 w t-1. W teorii pierw - szej autokorelacji opóźnienia 1 (1 1 2) .7 (1.7 2) .4698 i autokorelacji dla wszystkich pozostałych opóźnień 0. Model bazujący na symulacji MA (1) w lekcji 2.1 wynosił xt 10 waga 0,7 w t -1. Poniżej znajduje się teoretyczny PACF (częściowa autokorelacja) tego modelu. Zauważ, że wzorzec stopniowo sprowadza się do 0. R note: PACF właśnie pokazano został utworzony w R z tymi dwoma komendami: ma1pacf ARMAacf (ma c (.7), lag. max 36, pacfTRUE) plot (ma1pacf, typh, main Teoretical PACF z MA (1) z theta 0.7) Nawigacja2.1 Przekazywanie średnich modeli (modeli MA) Modele serii czasowej znane jako modele ARIMA mogą obejmować pojęcia autoregresyjne i średnie ruchome. W pierwszym tygodniu dowiedzieliśmy się, że termin autoregresji w modelu szeregów czasowych dla zmiennej x t jest opóźnioną wartością x t. Na przykład terminem autoregresji 1 opóźnienia jest x t-1 (pomnożony przez współczynnik). Ta lekcja definiuje ruchome średnie terminy. Ruchoma średnia wersja w modelu szeregów czasowych jest błędem w przeszłości pomnożonym przez współczynnik. Niech (przewyższa N (0, sigma2w)), co oznacza, że w t są identycznie, niezależnie rozdzielane, każdy z normalnym rozkładem mającym średnią 0 i tę samą wariancję. Średni model średniej ruchomej, oznaczony symbolem MA (1) to (xt mu wt atta1w) Średni model ruchu średniego rzędu, oznaczony symbolem MA (2) to (xt mu wt atta1w theta2w) , oznaczone literą MA (q) jest (xt mu wt theta2w kropka thetaqw) Uwaga. Wiele podręczników i programów definiuje model z negatywnymi znakami przed terminami. To nie zmienia ogólnych teoretycznych właściwości modelu, chociaż odwraca znaki algebraiczne oszacowanych wartości współczynników i (niezakłóconych) w formułach ACF i wariancji. Musisz sprawdzić oprogramowanie w celu sprawdzenia, czy użyto negatywnych lub pozytywnych oznaczeń w celu poprawnego zapisania szacowanego modelu. R używa pozytywnych oznaczeń w swoim modelu bazowym, tak jak tutaj. Właściwości teoretyczne serii czasowej z modelem MA (1) Należy pamiętać, że jedyną niższą wartością w teoretycznym ACF jest opóźnienie 1. Wszystkie inne autokorelacje wynoszą 0. Tak więc próbka ACF o znacznej autokorelacji tylko w punkcie 1 jest wskaźnikiem możliwego modelu MA (1). Dla zainteresowanych studentów, dowody dotyczące tych właściwości stanowią załącznik do niniejszego materiału informacyjnego. Przykład 1 Załóżmy, że model MA (1) wynosi x t 10 w t .7 w t-1. gdzie (nadwrażliwość N (0,1)). Współczynnik 1 0,7. Teoretyczny ACF podano w poniższym wykresie ACF. Przedstawiona fabuła jest teoretycznym ACF dla MA (1) z 1 0,7. W praktyce próbka zazwyczaj nie dostarcza tak wyraźnego wzorca. Używając R, symulujemy 100 wartości próbek przy użyciu modelu x t 10 w t .7 w t-1, gdzie w t iid N (0,1). W tej symulacji powstaje ciąg szeregowy danych przykładowych. Nie możemy wiele powiedzieć z tej fabuły. Poniżej znajduje się próbka ACF dla danych symulowanych. Widzimy skok w punkcie 1, a następnie ogólnie wartości nieistotne dla opóźnień 1. Pamiętaj, że próbka ACF nie jest zgodna z teoretycznym wzorem MA (1) leżącego u podstawy, co oznacza, że wszystkie autokorelacje w przypadku opóźnień 1 będą 0 Inna próbka miałaby nieco inną próbkę ACF pokazaną poniżej, ale najprawdopodobniej miałyby takie same cechy. Właściwości terapeutyczne serii czasowej z modelem MA (2) Dla modelu MA (2), właściwości teoretyczne są następujące: Należy zauważyć, że jedynymi wartościami niezonarnymi w teoretycznym ACF są opóźnienia 1 i 2. Autokorelacje dla wyższych opóźnień to 0 Więc próba ACF o znacznych autokorelacjach w przypadku opóźnień 1 i 2, ale nieistotne autokorelacje dla wyższych opóźnień wskazują na możliwy model MA (2). iid N (0,1). Współczynniki wynoszą 1 0,5 i 2 0,3. Ponieważ jest to MA (2), teoretyczny ACF będzie miał wartości inne niż z opóźnieniami 1 i 2. Wartości dwóch niezerowych autokorelacji to wykres A teoretycznej ACF. Jak prawie zawsze jest tak, dane próbki nie zachowują się tak doskonale jak teoria. Symulujemy n 150 wartości próbek dla modelu x t 10 w t .5 w t-1 .3 w t-2. gdzie w t iid N (0,1). Sporządza się szeregowy szereg danych. Podobnie jak w przypadku szeregów czasowych dla danych próbki MA (1), niewiele można powiedzieć o tym. Poniżej znajduje się próbka ACF dla danych symulowanych. Wzór jest typowy dla sytuacji, gdy model MA (2) może być użyteczny. Istnieją dwa statystycznie istotne skoki przy opóźnieniach 1 i 2, po których następują nieistotne wartości dla innych opóźnień. Zauważ, że z powodu błędu pobierania próbek próbka ACF nie pasowała dokładnie do teoretycznego wzoru. ACF dla modeli MA (q) Modeli Ogólną cechą modeli MA (q) jest to, że dla wszystkich pierwszych opóźnień q i autokorelacji 0 dla wszystkich luków gtq istnieją autokorelacje nie zerowe. Niepowtarzalność połączenia pomiędzy wartościami 1 i (rho1) w modelu MA (1). W modelu MA (1) dla dowolnej wartości 1. odwrotny 1 1 daje taką samą wartość jak dla przykładu, użyj 0,5 dla 1. a następnie użyj 1 (0.5) 2 dla 1. Otrzymasz (rho1) 0,4 w obu przypadkach. Aby zaspokoić teoretyczne ograniczenie zwane "invertibility". ograniczamy modele MA (1) do wartości z wartością bezwzględną mniejszą niż 1. W podanym przykładzie, 1 0,5 będzie dopuszczalną wartością parametru, podczas gdy 1 10,5 2 nie będzie. Odwrotność modeli MA Model macierzowy jest odwracalny, jeśli jest on algebraiczny, odpowiadający modelowi zbiegającemu się z nieskończonym modelem AR. Zbiegając się, rozumiemy, że współczynniki AR spadają do 0, gdy wracamy w czasie. Inwersja to ograniczenie zaprogramowane w oprogramowanie serii czasowej służące do oszacowania współczynników modeli z hasłami. To nie coś, co sprawdzamy w analizie danych. Dodatkowe informacje o ograniczeniu inwersji dla modeli MA (1) podano w dodatku. Uwagi dotyczące teorii zaawansowanej. W modelu MA (q) z określonym ACF jest tylko jeden model odwracalny. Warunkiem koniecznym do odwrócenia jest fakt, że współczynniki mają takie wartości, że równanie 1- 1 y-. - q y q 0 ma rozwiązania dla y, które leżą poza okręgiem jednostkowym. R dla przykładów W przykładzie 1 wykreślono teoretyczny ACF modelu x t 10 w t. 7w t-1. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Polecenia R służące do sporządzenia teoretycznej ACF to: acfma1ARMAacf (mac (0.7), lag. max10) 10 opóźnień ACF dla MA (1) z theta1 0,7 lags0: 10 tworzy zmienną o nazwie opóźnienia w zakresie od 0 do 10 (h0) dodaje osi poziomej do wykresu Pierwsze polecenie określa ACF i zapisuje je w obiekcie (np. o nazwie acfma1 (nasz wybór nazwy). Polecenie wydruku (trzecie polecenie) powoduje błędy w porównaniu do wartości ACF dla opóźnień 1 do 10. Parametr ylab etykietuje na osi y, a główny parametr umieszcza tytuł na wykresie. Aby zobaczyć wartości liczbowe ACF, użyj komendy acfma1. Symulacje i wykresy zostały wykonane za pomocą następujących poleceń. xcarc. sim (n150, lista (mac (0.7))) Symuluje n 150 wartości z MA (1) xxc10 dodaje 10 do średniej 10. Domyślnie domyślne symulacje to 0. wykres (x, typeb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF dla symulowanych danych próbki) W przykładzie 2 wymyśliliśmy teoretyczny ACF modelu xt 10 wt5 w t-1 .3 w t-2. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Stosowane komendy R to acfma2ARMAacf (mac (0.5.0.3), lag. max10) acfma2 lags0: 10 (lags, acfma2, xlimc (1,10), ylabr, typh, główny ACF dla MA (2) z theta1 0,5, (x, x, x, x, x, x, x, x, x, x, x, x, y) mainACF dla symulowanych danych MA (2)) Dodatek: Dowód właściwości MA (1) Dla zainteresowanych studentów są dowody na teoretyczne właściwości modelu MA (1). Variance: (text (xt) text (mu wt theta1 w) tekst 0 (wt) tekst (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Kiedy h 1, poprzedni wyrażenie 1 w 2. W przypadku dowolnego h2, poprzednie wyrażenie 0 Powodem jest to, że z definicji niezależności wag. E (w k w j) 0 dla dowolnej kj. Ponadto, ponieważ w t oznaczają 0, E (wjwj) E (wj2) w2. W serii czasów Zastosuj ten wynik, aby uzyskać ACF podany powyżej. Inwersyjny model MA to taki, który można zapisać jako model AR nieskończonego zamówienia, który zbiega się tak, że współczynniki AR zbiegają się do 0, gdy poruszamy się nieskończenie wstecz w czasie. Dobrze wykazać inwersję modelu MA (1). Następnie zastępujemy relację (2) dla t-1 w równaniu (1) (3) (zt wt theta1 (z-taleta) wt theta1z-tal2w) W czasie t-2. równanie (2) staje się Następnie zastępujemy związek (4) dla t-2 w równaniu (3) (zt wt theta1 z - theta21w wt theta1z - eta21 (z-taleta) wt theta1z - eta12z theta31w) Gdybyśmy kontynuowali ( nieskończoność) dostaniemy model nieskończonej AR (zt wt theta1 z - theta21z theta31z-theta41z dots) Zauważ jednak, że jeśli 1 1, współczynniki mnożące opóźnienia z będą wzrastać (nieskończenie) w rozmiarze, gdy wracamy z powrotem czas. Aby temu zapobiec, potrzebujemy 1 lt1. Jest to warunek odwracalnego modelu MA (1). Model nieskoordynowanych zamówień MA W trzecim tygodniu widzimy, że model AR (1) można przekształcić w model MA nieskończonego rzędu: (xt - mu wt phi1w phi21w kropki phik1 w kropkach sumy fij1w) To sumowanie wcześniejszych białych szumów jest znane jako przyczynę reprezentacji AR (1). Innymi słowy, x t jest specjalnym rodzajem magistra z nieskończoną liczbą terminów z czasem. Nazywa się to nieskończoną kolejnością MA lub MA (). Kończy się rozkazem MA jest nieskończona kolejność AR, a dowolny porządek AR jest rzędem nieskończonym rzędu. Przypomnijmy sobie w tygodniu 1, zauważyliśmy, że wymóg stacjonarnego AR (1) polega na tym, że 1 lt1. Pozwala obliczyć Var (xt) używając reprezentacji przyczynowej. W ostatnim kroku używa się podstawowych faktów dotyczących serii geometrycznych, które wymagają (phi1lt1), w przeciwnym razie serie rozbieżności. Analiza NavigationTime Series tsa statsmodels. tsa zawiera klasy i funkcje modelu, które są przydatne w analizie serii czasowych. Obejmuje ona obecnie jednocyfrowe modele autoregresji (AR), modele autoregresji wektorowej (VAR) i jednowymiarowe, autoregresywne modele średniej ruchomej (ARMA). Zawiera również opisowe statystyki dla szeregów czasowych, na przykład autokorelację, częściową funkcję autokorelacji i periodogram, a także odpowiednie teoretyczne właściwości ARiMR lub powiązanych procesów. Obejmuje również metody pracy z autoregresywnymi i poruszającymi się wielomianami opóźnionymi. Dostępne są również testy statystyczne i niektóre przydatne funkcje pomocnicze. Oszacowanie dokonuje się za pomocą dokładnych lub warunkowych maksymalnych prawdopodobieństw lub warunkowych najmniejszych kwadratów, używając filtra Kalman lub filtrów bezpośrednich. Obecnie funkcje i klasy muszą być importowane z odpowiedniego modułu, ale główne klasy zostaną udostępnione w przestrzeni nazw statsmodels. tsa. Struktura modułu znajduje się w statsmodels. tsa to stattools. właściwości empiryczne i testy, acf, pacf, związek przyczynowo-skutkowy, test pierwiastków adf, test ljung-box i inne. armodel. jednoczynnikowy proces autoregresyjny, estymacja warunkowego i dokładnego maksymalnego prawdopodobieństwa oraz arimamodel warunkujący najmniej kwadratowy. jednoznaczny proces ARiMR, oszacowanie z warunkowego i dokładnego maksymalnego prawdopodobieństwa oraz wariantowe wektora najmniejszych kwadratów, var. modele estymacji procesów autoregresji wektora (VAR), analizę odpowiedzi impulsów, dekompozycje wariancji błędów prognoz i narzędzia kalmanfowania danych. klasy estymacji dla ARMA i innych modeli z dokładnym MLE przy użyciu sprężyny filtra Kalman. właściwości procesów arma z określonymi parametrami, zawiera narzędzia do konwersji między reprezentacją ARMA, MA i AR oraz acf, pacf, gęstość spektralną, funkcję odpowiedzi impulsów i podobne sandbox. tsa. fftarma. podobnie jak armaprocess, ale pracujących w tsatools w dziedzinie częstotliwości. dodatkowe funkcje pomocnika, tworzenie macierzy opóźnionych zmiennych, konstruowanie regresorów dla trendów, detrend i podobnych. filtry. funkcja pomocnicza dla szeregów czasowych filtrowania Niektóre dodatkowe funkcje użyteczne w analizie szeregów czasowych znajdują się w innych częściach modeli statystycznych, na przykład w dodatkowych testach statystycznych. Niektóre powiązane funkcje są również dostępne w matplotlib, nitime i scikits. talkbox. Funkcje te są bardziej przeznaczone do stosowania w przetwarzaniu sygnałów, w przypadku gdy dostępne są dłuższe szeregi czasowe i częściej pracują w dziedzinie częstotliwości. Statystyki opisowe i testy stattools. acovf (x, bezstronny, poniżający, fft)
Comments
Post a Comment