Temat Zespół
1.

Kodowanie Huffmana + modelowanie źródła informacji

  • Opracować koder i dekoder Huffmana (pozycje [1], [2], [13] literatury uzupełniającej do wykładu) wykorzystując:
    • model źródła informacji bez pamięci - kolejne symbole kodowane niezależnie od siebie,
    • model blokowy rzędu 2 - kodowane pary symboli,
    • model Markowa rzędu 1 - kodowanie kontekstowe.
  • Przetestować algorytm na sztucznie wygenerowanych ciągach danych o rozkładzie równomiernym, normalnym, Laplace'a oraz obrazach testowych.
  • Wyznaczyć histogram i entropię danych wejściowych (dla każdego modelu).
  • Porównać entropię ze średnią długością bitową kodu wyjściowego.
  • Ocenić efektywność algorytmu do kodowania obrazów naturalnych.
  1.  
  2.  
  3.  
  4.  
2.

Kodowanie różnicowe + kodowanie Huffmana

  • Opracować algorytm kodowania predykcyjnego (pozycje [1], [2] literatury uzupełniającej do wykładu) danych dwuwymiarowych wykorzystując do predykcji:
    • lewego sąsiada,
    • górnego sąsiada,
    • medianę lewego, lewego-górnego, górnego sąsiada.
  • Wyznaczyć histogramy i entropie danych wejściowych i różnicowych dla sztucznie wygenerowanych ciągów danych wejściowych o rozkładzie równomiernym, normalnym, Laplace'a oraz obrazów testowych.
  • Zakodować dane różnicowe przy użyciu klasycznego algorytmu Huffmana.
  • Porównać entropię ze średnią długością bitową kodu wyjściowego.
  • Ocenić efektywność algorytmu do kodowania obrazów naturalnych.
  1. Bajer Maciej
  2. Górska Anna
  3. Kukareka Daria
  4. Swidziński Adam
3.

Wykładnicze kodowanie Golomba

  • Opracować koder i dekoder wykładniczego kodu Golomba (Exp-Golomb) (pozycje [7], [11], [13] literatury uzupełniającej do wykładu).
  • Przetestować algorytm na sztucznie wygenerowanych ciągach danych o rozkładzie równomiernym, normalnym, Laplace'a oraz obrazach testowych kodowanych różnicowo.
  • Wyznaczyć histogram i entropię danych wejściowych.
  • Porównać entropię ze średnią długością bitową kodu wyjściowego.
  • Ocenić efektywność algorytmu do kodowania obrazów naturalnych.
  1.  
  2.  
  3.  
  4.  
4.

Wielosymbolowe kodowanie arytmetyczne (implementacja całkowitoliczbowa)

  1.  
  2.  
  3.  
  4.  
5.

Binarne kodowanie arytmetyczne (implementacja całkowitoliczbowa)

  1. Ćwiklińska Zuzanna
  2. Grzesiak Magdalena
  3. Wasak Dominika
6.

Dynamiczne kodowanie słownikowe LZW

  • Opracować koder i dekoder słownikowy LZW (pozycje [1], [2] literatury uzupełniającej do wykładu).
  • Przetestować algorytm na sztucznie wygenerowanych ciągach danych o rozkładzie równomiernym, normalnym, Laplace'a oraz obrazach testowych.
  • Wyznaczyć histogram i entropię danych wejściowych.
  • Wyznaczyć entropię dla źródła blokowego rzędu 2 i 3.
  • Porównać średnią długość bitową kodu wyjściowego z wyliczonymi entropiami; wyjaśnić dlaczego średnia długość bitowa może być mniejsza od wyliczonej entropii.
  • Ocenić efektywność algorytmu do kodowania obrazów naturalnych.
  1. Baran Marcin
  2. Buczyński Hubert
  3. Polaczek Jakub
  4. Ruksha Ihnat
7.

Dynamiczne kodowanie słownikowe LZSS

  • Opracować koder i dekoder słownikowy LZSS (pozycje [1], [2] literatury uzupełniającej do wykładu).
  • Przetestować algorytm na sztucznie wygenerowanych ciągach danych o rozkładzie równomiernym, normalnym, Laplace'a oraz obrazach testowych.
  • Wyznaczyć histogram i entropię danych wejściowych.
  • Wyznaczyć entropię dla źródła blokowego rzędu 2 i 3.
  • Porównać średnią długość bitową kodu wyjściowego z wyliczonymi entropiami; wyjaśnić dlaczego średnia długość bitowa może być mniejsza od wyliczonej entropii.
  • Ocenić efektywność algorytmu do kodowania obrazów naturalnych.
  1. Buchholz Tomasz
  2. Gapsa Mikołaj
  3. Rogowski Damian
  4. Wachowicz Mariusz
8.

Optymalna kwantyzacja skalarna - algorytm Lloyda-Maxa

  • Zaimplementować algorytm Lloyda-Maxa (pozycja [2] literatury uzupełniającej do wykładu).
  • Wyznaczyć optymalne granice przedziałów kwantyzacji i poziomów rekonstrukcji dla źródeł danych o rozkładzie równomiernym, normalnym, Laplace'a oraz obrazów testowych.
  • Zastosować opracowany algorytm do rekwantyzacji (np. z oryginalnej reprezentacji 8-bitowej na reprezentację 6-bitową) zbioru sztucznie wygenerowanych ciągów danych o rozkładzie równomiernym, normalnym oraz Laplace'a, wykorzystując wyznaczone kwantyzatory.
  • Zastosować opracowany algorytm do rekwantyzacji (np. z oryginalnej reprezentacji 8-bitowej na reprezentację 6-bitową) zbioru obrazów naturalnych; funkcję rozkładu gęstości prawdopodobieństwa estymować histogramami rozkładu wartości pikseli.
  • Porównać błąd średniokwadratowy wnoszony przez rekwantyzator z granicami przedziałów wyznaczonymi algorytmem Lloyda-Maxa z błędem wnoszonym przez rekwantyzację polegającą na usunięciu odpowiedniej liczby mniej znaczących bitów (dwóch najmniej znaczących w podanym przykładzie).
  1.  
  2.  
  3.  
  4.