Hypercompression of test data
[ 1 ] Instytut Radiokomunikacji, Wydział Informatyki i Telekomunikacji, Politechnika Poznańska | [ D ] doktorant
[ 1 ] Instytut Radiokomunikacji, Wydział Informatyki i Telekomunikacji, Politechnika Poznańska | [ P ] pracownik
PL Hiperkompresja danych testowych
angielski
- design for testability
- scan chain
- low power test
- compression of test data
- deterministic test
- testowanie układów cyfrowych
- ścieżka testująca
- testowanie o ograniczonym poborze energii
- kompresja danych testowych
- testowanie deterministyczne
EN The thesis introduces a number of methods that target two important aspects of a test preparation process: test set compaction and test data compression. First, a novel test set compaction methodology employing a state-of-the-art SAT-based automatic test pattern generation (ATPG) algorithm is presented. In principle, it is based on a dimensionality reduction paradigm that works with a meaningful representation of test patterns using external and internal necessary assignments to determine small groups of potentially compatible faults. These faults are subsequently retargeted by the robust SAT-based ATPG and its solvers producing a single test pattern for the entire group, thus making the resultant test set smaller in size. The subsequent part of the thesis presents a new test compression scheme that aims at achieving encoding efficiency higher than any best-to-date sequential compression methods. The approach is based on a key observation that among care bits populating test cubes only a very few have a status of necessary assignments (their locations cannot be changed), whereas the remaining ones have alternative sites. These test cubes are used to form circular test templates which synergistically control a decompressor and guide back ATPG to find assignments yielding highly compressible test patterns. The last part of this work proposes a next step in developing a new class of test data compression schemes. Although it builds on the paradigm recalled in the previous paragraph, it further limits silicon overhead, remains non-intrusive to the core logic, and elevates compression ratios. More importantly, however, it is inherently a low-power test solution that alleviates problems related to fault coverage drop and pattern count inflation caused by power constraints. Extremely small test templates make that scheme very flexible – it is capable of attaching a template to every pattern at a negligible cost related to test time and data volume, especially when working with a very few ATE channels. All solutions presented in the thesis have been thoroughly verified through experimental results obtained for a variety of industrial and open-source benchmark circuits representing the latest technology nodes while varying with respect to design styles and scan methodologies, to name just a few factors that were taken into account.
PL W pracy podjęto próbę rozwiązania dwóch istotnych zagadnień: minimalizacji liczby wektorów testowych (co w efekcie oznacza skrócenie czasu testowania) oraz redukcji wolumenu danych niezbędnych w procesie aplikacji właściwych testów. W pierwszej części rozprawy podano metodę ograniczenia liczby wektorów testowych, początkowo otrzymanych za pomocą konwencjonalnych algorytmów automatycznej generacji testów. W zaproponowanym podejściu wykorzystano technikę redukcji wymiaru, tj. proces zmniejszania liczby zmiennych branych pod uwagę w trakcie analizy wektorów testowych. Zgodnie z tym podejściem, początkowy zbiór wektorów testowych, a w szczególności zbiór jego wartości koniecznych, jest wykorzystywany do zdefiniowania małych grup uszkodzeń potencjalnie zgodnych (wykrywanych za pomocą tego samego pobudzenia). Następnie wektory testowe są generowane ponownie za pomocą heurystycznych algorytmów stosowanych tradycyjnie w rozstrzyganiu problemu spełnialności formuł logicznych. W dalszej części rozprawy przedstawiono metodę redukcji (kompresji) danych testowych, której celem jest osiągnięcie wysokiej efektywności kodowania. Zaproponowane podejście opiera się na obserwacji, że wśród wyspecyfikowanych bitów wektorów testowych tylko nieliczne są konieczne (ich wartości oraz przypisania do wejść układu nie można zmienić), podczas gdy pozostałe można zastąpić innymi wartościami przypisanymi do alternatywnych wejść. Tak interpretowane wektory testowe są następnie wykorzystywane do utworzenia cyklicznych szablonów sterujących procesem kompresji (i dekompresji) danych testowych. Ostatni rozdział pracy to kolejny krok w ewolucji metod kompresji danych testowych. Bazując na opisanej we wcześniejszych rozdziałach rozprawy metodzie redukcji danych, nowy algorytm umożliwia dalsze ograniczenie infrastruktury testującej, zwiększa stopień kompresji oraz znacząco zmniejsza pobór mocy w trakcie podawania testów. W szczególności redukuje także rozmiar szablonów, które są dodawane do każdego wektora bez istotnego wpływu na czas testu i wynikową ilość danych testowych.
89
nauki inżynieryjne i techniczne
informatyka techniczna i telekomunikacja
DrOIN 2172
publiczny
Sybille Hellebrand
Paderborn, Germany
05.01.2022
angielski
publiczny
Matteo Sonza Reorda
Torino, Italy
03.01.2022
angielski
publiczny
rozprawa doktorska
Poznań, Polska
01.03.2022
Rada Dyscypliny Informatyka Techniczna i Telekomunikacja Politechniki Poznańskiej
doktor nauk inżynieryjno-technicznych w dyscyplinie: informatyka techniczna i telekomunikacja