Разделы презентаций


02 Биометрия

Содержание

Метод Viola Jonesиспользуются изображения в интегральном представлении, что позволяет вычислять быстро необходимые объекты;используются признаки Хаара, с помощью которых происходит поиск нужного объекта (в данном контексте, лица и его черт);используется бустинг (от

Слайды и текст этой презентации

Слайд 102
Биометрия

02Биометрия

Слайд 2Метод Viola Jones
используются изображения в интегральном представлении, что позволяет вычислять

быстро необходимые объекты;
используются признаки Хаара, с помощью которых происходит поиск

нужного объекта (в данном контексте, лица и его черт);
используется бустинг (от англ. boost – улучшение, усиление) для выбора наиболее подходящих признаков для искомого объекта на данной части изображения;
все признаки поступают на вход классификатора, который даёт результат «верно» либо «ложь»;
используются каскады признаков для быстрого отбрасывания окон, где не найдено лицо.
Метод Viola Jonesиспользуются изображения в интегральном представлении, что позволяет вычислять быстро необходимые объекты;используются признаки Хаара, с помощью

Слайд 3https://habrahabr.ru/post/135244/
https://habrahabr.ru/post/134857/
https://habrahabr.ru/post/133909/
https://habrahabr.ru/post/133826/

https://habrahabr.ru/post/135244/https://habrahabr.ru/post/134857/https://habrahabr.ru/post/133909/https://habrahabr.ru/post/133826/

Слайд 4Метод Viola Jones. Основные принципы
используются изображения в интегральном представлении, что

позволяет вычислять быстро необходимые объекты;
используются признаки Хаара, с помощью которых

происходит поиск нужного объекта (в данном контексте, лица и его черт);
используется бустинг (от англ. boost – улучшение, усиление) для выбора наиболее подходящих признаков для искомого объекта на данной части изображения;
все признаки поступают на вход классификатора, который даёт результат «верно» либо «ложь»;
используются каскады признаков для быстрого отбрасывания окон, где не найдено лицо.
Метод Viola Jones. Основные принципыиспользуются изображения в интегральном представлении, что позволяет вычислять быстро необходимые объекты;используются признаки Хаара,

Слайд 5Краткий алгоритм
имеется изображение, на котором есть искомые объекты. Оно представлено двумерной матрицей пикселей

размером w*h, в которой каждый пиксель имеет значение: — от 0 до

255, если это черно-белое изображение; — от 0 до 2553, если это цветное изображение (компоненты R, G, B).
в результате своей работы, алгоритм должен определить лица и их черты и пометить их – поиск осуществляется в активной области изображения прямоугольными признаками, с помощью которых и описывается найденное лицо и его черты: rectanglei = {x,y,w,h,a}, 
где x, y – координаты центра i-го прямоугольника, w – ширина, h – высота, a – угол наклона прямоугольника к вертикальной оси изображения.

Краткий алгоритмимеется изображение, на котором есть искомые объекты. Оно представлено двумерной матрицей пикселей размером w*h, в которой каждый пиксель имеет

Слайд 6Интегральное представление изображений
вейвлет-преобразования
SURF
SIFT

рассчитывать суммарную яркость произвольного прямоугольника на изображении, причем

какой бы прямоугольник не был, время расчета неизменно. Интегральное представление изображения

– это матрица, совпадающая по размерам с исходным изображением. В каждом элементе ее хранится сумма интенсивностей всех пикселей, находящихся левее и выше данного элемента. 
Интегральное представление изображенийвейвлет-преобразования SURFSIFTрассчитывать суммарную яркость произвольного прямоугольника на изображении, причем какой бы прямоугольник не был, время расчета

Слайд 7

где I(i,j) — яркость пикселя исходного изображения. Каждый элемент матрицы L[x,y]

представляет собой сумму пикселей в прямоугольнике от (0,0) до (x,y),

т.е. значение каждого пикселя (x,y) равно сумме значений всех пикселов левее и выше данного пикселя (x,y). Расчет матрицы занимает линейное время, пропорциональное числу пикселей в изображении, поэтому интегральное изображение просчитывается за один проход.

L(x,y) = I(x,y) – L(x-1,y-1) + L(x,y-1) + L(x-1,y)

где I(i,j) — яркость пикселя исходного изображения. Каждый элемент матрицы L[x,y] представляет собой сумму пикселей в прямоугольнике

Слайд 8S(ABCD) = L(A) + L(С) — L(B) — L(D)

S(ABCD) = L(A) + L(С) — L(B) — L(D)

Слайд 9Пример расчета

Пример расчета

Слайд 10Признаки Хаара
Признак— отображениеf: X => Df, где Df— множество допустимых значений признака.


Если заданы признакиf1,…,fn, то вектор признаковx = (f1(x),…,fn(x)), называется признаковым

описанием объекта x∈X.
Признаковые описания допустимо отождествлять с самими объектами. При этом множествоX = Df1* …* Dfnназывают признаковым пространством.

Признаки ХаараПризнак— отображениеf: X => Df, где Df— множество допустимых значений признака. Если заданы признакиf1,…,fn, то вектор признаковx =

Слайд 11типы в зависимости
Признаки делятся на следующие типы в зависимости от

множества Df:
бинарный признак, Df = {0,1};
номинальный признак: Df— конечное множество;
порядковый признак: Df— конечное упорядоченное множество;
количественный

признак: Df— множество действительных чисел.

типы в зависимостиПризнаки делятся на следующие типы в зависимости от множества Df:бинарный признак, Df = {0,1};номинальный признак: Df— конечное множество;порядковый признак: Df—

Слайд 12В стандартном методе Виолы – Джонса
Вычисляемым значением такого признака будет F

= X-Y, где X – сумма значений яркостей точек закрываемых светлой

частью признака, а Y – сумма значений яркостей точек закрываемых темной частью признака. 
В стандартном методе Виолы – ДжонсаВычисляемым значением такого признака будет F = X-Y,  где X –

Слайд 13В расширенном методе Виолы – Джонса

В расширенном методе Виолы – Джонса

Слайд 14Сканирование окна
есть исследуемое изображение, выбрано окно сканирования, выбраны используемые признаки;
далее

окно сканирования начинает последовательно двигаться по изображению с шагом в

1 ячейку окна (например, 24*24 ячейки);
при сканировании изображения в каждом окне вычисляется приблизительно 200 000 вариантов расположения признаков, за счет изменения масштаба признаков и их положения в окне сканирования;
сканирование производится последовательно для различных масштабов;
масштабируется не само изображение, а сканирующее окно (изменяется размер ячейки);
все найденные признаки попадают к классификатору, который «выносит вердикт».

Сканирование окнаесть исследуемое изображение, выбрано окно сканирования, выбраны используемые признаки;далее окно сканирования начинает последовательно двигаться по изображению

Слайд 16Используемая в алгоритме модель машинного обучения
«Машинное обучение — это наука,

изучающая компьютерные алгоритмы, автоматически улучшающиеся во время работы» (Michel, 1996)
Обучение

машины — это процесс получения модулем новых знаний.
Используемая в алгоритме модель машинного обучения«Машинное обучение — это наука, изучающая компьютерные алгоритмы, автоматически улучшающиеся во время

Слайд 17Обучение классификатора в методе Виолы-Джонса
Классифицировать объект — значит, указать номер (или

наименование класса), к которому относится данный объект. Классификация объекта — номер или

наименование класса, выдаваемые алгоритмом классификации в результате его применения к данному конкретному объекту. Классификатор(classifier) — в задачах классификации это аппроксимирующая функция, выносящая решение, к какому именно классу данный объект принадлежит. Обучающая выборка – конечное число данных.
Обучение классификатора в методе Виолы-ДжонсаКлассифицировать объект — значит, указать номер (или наименование класса), к которому относится данный объект.

Слайд 18Постановка классификации
Есть X – множество, в котором хранится описание объектов,
Y

– конечное множество номеров, принадлежащих классам.
зависимость – отображение Y*:

X => Y.
Обучающая выборка  Xm = {(x1,y1), …, (xm,ym)}.
Конструируется функция f от вектора признаков X, которая выдает ответ для любого возможного наблюдения X и способна классифицировать объект x∈X. 
Постановка классификацииЕсть X – множество, в котором хранится описание объектов, Y – конечное множество номеров, принадлежащих классам. зависимость

Слайд 19Бустинг и разработка AdaBoost
Бустинг — комплекс методов, способствующих повышению точности

аналитических моделей. 
Эффективная модель, допускающая мало ошибок классификации, называется «сильной».
 «Слабая»  не позволяет надежно разделять

классы или давать точные предсказания, делает в работе большое количество ошибок. Поэтому бустинг означает дословно «усиление» «слабых» моделей  – это процедура последовательного построения композиции алгоритмов машинного обучения, когда каждый следующий алгоритм стремится компенсировать недостатки композиции всех предыдущих алгоритмов.
Бустинг и разработка AdaBoostБустинг — комплекс методов, способствующих повышению точности аналитических моделей. Эффективная модель, допускающая мало ошибок классификации,

Слайд 20Идея бустинга
Роберт Шапир (Schapire) в конце 90-х годов
построение цепочки (ансамбля) классификаторов, который

называется каскадом, каждый из которых (кроме первого) обучается на ошибках предыдущего.
Boost1 использовал

каскад из 3-х моделей,
первая из которых обучалась на всем наборе данных,
вторая – на выборке примеров, в половине из которых первая дала правильные ответы,
третья — на примерах, где «ответы» первых двух разошлись.
имеет место последовательная обработка примеров каскадом классификаторов,
задача для каждого последующего становится труднее.
Результат определяется путем голосования: пример относится к тому классу, который выдан большинством моделей каскада.
Идея бустингаРоберт Шапир (Schapire) в конце 90-х годовпостроение цепочки (ансамбля) классификаторов, который называется каскадом, каждый из которых (кроме первого) обучается на

Слайд 21Математическое объяснение
Наряду с множествами
X и Y
вводится вспомогательное множество

R, называемое пространством оценок.
Рассматриваются алгоритмы, имеющие вид суперпозиции
a(x) =

C(b(x)),
где функция b: X → R называется алгоритмическим оператором,
функция C: R → Y –решающим правилом.
Математическое объяснениеНаряду с множествами X и Y вводится вспомогательное множество R, называемое пространством оценок. Рассматриваются алгоритмы, имеющие вид

Слайд 22Структура алгоритмов классификации
вычисляются оценки принадлежности объекта классам,
решающее правило переводит

эти оценки в номер класса.
Значение оценки, как правило, характеризует

степень уверенности классификации. 
Структура алгоритмов классификациивычисляются оценки принадлежности объекта классам, решающее правило переводит эти оценки в номер класса. Значение оценки,

Слайд 23Алгоритмическая композиция
алгоритм a: X → Y вида a(x) = C(F(b1(x), .

. . , bT (x)), x ∈ X ,
составленный из алгоритмических

операторов bt :X→R, t=1,..., T,
корректирующей операции F: RT→R
решающего правила C: R→Y. Базовыми алгоритмами обозначаются функции at(x) = C(bt(x)), а при фиксированном решающем правиле C — и сами операторы bt(x).
Суперпозиции вида F(b1,..., bT ) являются отображениями из X в R, то есть, опять же, алгоритмическими операторами.
Алгоритмическая композицияалгоритм a: X → Y вида a(x) = C(F(b1(x), . . . , bT (x)), x ∈

Слайд 24совместное применение нескольких критериев

построено заданное количество базовых алгоритмов T;
достигнута заданная

точность на обучающей выборке;
достигнутую точность на контрольной выборке не удаётся

улучшить на протяжении последних нескольких шагов при определенном параметре алгоритма.

совместное применение нескольких критериевпостроено заданное количество базовых алгоритмов T;достигнута заданная точность на обучающей выборке;достигнутую точность на контрольной

Слайд 25AdaBoost (adaptive boosting – адаптированное улучшение)
Йоав Фройнд (Freund) и Роберт Шапир (Schapire)

в 1999,
может использовать произвольное число классификаторов
производить

обучение на одном наборе примеров, поочередно применяя их на различных шагах.
AdaBoost (adaptive boosting – адаптированное улучшение)Йоав Фройнд (Freund) и Роберт Шапир (Schapire) в 1999, может использовать произвольное число классификаторов

Слайд 26задача классификации на два класса, Y = {−1,+1}. К примеру,

базовые алгоритмы также возвращают только два ответа −1 и +1,

и решающее правило фиксировано: C(b) = sign(b). Искомая алгоритмическая композиция имеет вид:

Функционал качества композиции Qt определяется как число ошибок, допускаемых ею на обучающей выборке:

Для решения задачи AdaBoosting’а нужна экспоненциальная аппроксимация пороговой функции потерь [z<0], причем экспонента Ez = e-z 
задача классификации на два класса, Y = {−1,+1}. К примеру, базовые алгоритмы также возвращают только два ответа

Слайд 27Дано: Y = {−1,+1},
b1(x), . . . , bT (x) возвращают −1

и + 1,
Xl – обучающая выборка.

Решение: 1. Инициализация весов объектов:  wi:= 1/ℓ, i

= 1, . . . , ℓ; (1.9) для всех t = 1, . . . , T, пока не выполнен критерий останова: 2 а. 
2 б.
3. Пересчёт весов объектов. Правило мультипликативного пересчёта весов.
Вес объекта увеличивается в раз, когда bt допускает на нём ошибку, и во столько же раз уменьшается, когда bt правильно классифицирует xi.
Дано: Y = {−1,+1},b1(x), . . . , bT (x) возвращают −1 и + 1,Xl – обучающая выборка. Решение:

Слайд 28непосредственно перед настройкой базового алгоритма наибольший вес накапливается у тех

объектов, которые чаще оказывались трудными для предыдущих алгоритмов:

4. Нормировка весов

объектов
непосредственно перед настройкой базового алгоритма наибольший вес накапливается у тех объектов, которые чаще оказывались трудными для предыдущих

Слайд 30Плюсы AdaBoost
хорошая обобщающая способность. В реальных задачах практически всегда строятся

композиции, превосходящие по качеству базовые алгоритмы. Обобщающая способность может улучшаться

по мере увеличения числа базовых алгоритмов;
простота реализации;
собственные накладные расходы бустинга невелики. Время построения композиции практически полностью определяется временем обучения базовых алгоритмов;
возможность идентифицировать объекты, являющиеся шумовыми выбросами. Это наиболее «трудные» объекты xi, для которых в процессе наращивания композиции веса wi принимают наибольшие значения.

Плюсы AdaBoostхорошая обобщающая способность. В реальных задачах практически всегда строятся композиции, превосходящие по качеству базовые алгоритмы. Обобщающая

Слайд 31Минусы AdaBoost:
Бывает переобучение при наличии значительного уровня шума в данных.

Экспоненциальная функция потерь слишком сильно увеличивает веса «наиболее трудных» объектов,

на которых ошибаются многие базовые алгоритмы. Однако именно эти объекты чаще всего оказываются шумовыми выбросами. В результате AdaBoost начинает настраиваться на шум, что ведёт к переобучению. Проблема решается путём удаления выбросов или применения менее «агрессивных» функций потерь. В частности, применяется алгоритм GentleBoost;
AdaBoost требует достаточно длинных обучающих выборок. Другие методы линейной коррекции, в частности, бэггинг, способны строить алгоритмы сопоставимого качества по меньшим выборкам данных;
Бывает построение неоптимального набора базовых алгоритмов. Для улучшения композиции можно периодически возвращаться к ранее построенным алгоритмам и обучать их заново.
Бустинг может приводить к построению громоздких композиций, состоящих из сотен алгоритмов. Такие композиции исключают возможность содержательной интерпретации, требуют больших объёмов памяти для хранения базовых алгоритмов и существенных временных затрат на вычисление классификаций.

Минусы AdaBoost:Бывает переобучение при наличии значительного уровня шума в данных. Экспоненциальная функция потерь слишком сильно увеличивает веса

Слайд 32Принципы решающего дерева в алгоритме
function Node = Обучение_Вершины( {(x,y)} )

{ if {y} одинаковые return Создать_Лист(y); test = Выбрать_лучшее_разбиение( {(x,y)} ); {(x0,y0)} = {(x,y)

| test(x) = 0}; {(x1,y1)} = {(x,y) | test(x) = 1}; LeftChild = Обучение_Вершины( {(x0,y0)} ); RightChild = Обучение_Вершины( {(x1,y1)} ); return Создать_Вершину(test, LeftChild, RightChild); } //Обучение дерева function main() { {(X,Y)} = Прочитать_Обучающие_Данные(); TreeRoot = Обучение_Вершины( {(X,Y)} ); }
Принципы решающего дерева в алгоритмеfunction Node = Обучение_Вершины( {(x,y)} ) { if {y} одинаковые return Создать_Лист(y); test

Слайд 33Каскадная модель алгоритма
Алгоритм бустинга для поиска лиц с моей точки

зрения таков: 1. Определение слабых классификаторов по прямоугольным признакам; 2. Для каждого

перемещения сканирующего окна вычисляется прямоугольный признак на каждом примере; 3. Выбирается наиболее подходящий порог для каждого признака; 4. Отбираются лучшие признаки и лучший подходящий порог; 5. Перевзвешивается выборка.
Каскадная модель алгоритмаАлгоритм бустинга для поиска лиц с моей точки зрения таков: 1. Определение слабых классификаторов по

Слайд 34Сложность обучения таких каскадов равна О(xyz), где применяется x этапов,

y примеров и z признаков. Далее, каскад применяется к изображению: 1. Работа

с «простыми» классификаторами – при этом отбрасывается часть «отрицательных» окон; 2. Положительное значение первого классификатора запускает второй, более приспособленный и так далее; 3. Отрицательное значение классификатора на любом этапе приводит к немедленному переходу к следующему сканирующему окну, старое окно отбрасывается; 4. Цепочка классификаторов становится более сложной, поэтому ошибок становится намного меньше.
Сложность обучения таких каскадов равна О(xyz), где применяется x этапов, y примеров и z признаков. Далее, каскад

Слайд 35Для тренировки такого каскада потребуются следующие действия: 1. Задаются значения уровня

ошибок для каждого этапа (предварительно их надо количественно просмотреть при

применении к изображению из обучающего набора) – они называются detection и false positive rates – надо чтобы уровень detection был высок, а уровень false positive rates низок; 2. Добавляются признаки до тех пор, пока параметры вычисляемого этапа не достигнут поставленного уровня, тут возможны такие вспомогательные этапы, как: а. Тестирование дополнительного маленького тренировочного набора; б. Порог AdaBoost умышленно понижается с целью найти больше объектов, но в связи с этим возможно большее число неточных определений объектов; 3. Если false positive rates остается высоким, то добавляется следующий этап или слой; 4. Ложные обнаружения в текущем этапе используются как отрицательные уже на следующем слое или этапе.
Для тренировки такого каскада потребуются следующие действия: 1. Задаются значения уровня ошибок для каждого этапа (предварительно их

Слайд 36В более формальном виде алгоритм тренировки каскада: a) Пользователь задает значения f (максимально

допустимый уровень ложных срабатываний на слой) и d (минимально допустимый

уровень обнаружений на слой) b) Пользователь задает целевой общий уровень ложных срабатываний Ftarget c) P – набор положительных примеров d) N – набор отрицательных примеров e) F0 = 1,0; D0 = 1,0; i = 0 f) while ( Fi > Ftarget) i = i+1; ni = 0; Fi = Fi-1 while (Fi = f * Fi-1 ) ni = ni + 1 AdaBoost(P, N, ni) Оценить полученный каскад на тестовом наборе для определения Fi и Di ; Уменьшать порог для i-того классификатора, пока текущий каскад будет иметь уровень обнаружения по крайней мере d*Di-1 (это же касается Fi) ; g) N = Ø; h) Если Fi > Ftarget , то оценить текущий каскад на наборе изображений, не содержащих лиц, и добавить все неправильно классифицированные в N.
В более формальном виде алгоритм тренировки каскада: a) Пользователь задает значения f (максимально допустимый уровень ложных срабатываний на слой)

Слайд 371. P. Viola and M.J. Jones, «Rapid Object Detection using

a Boosted Cascade of Simple Features», proceedings IEEE Conf. on

Computer Vision and Pattern Recognition (CVPR 2001), 2001 2. P. Viola and M.J. Jones, «Robust real-time face detection», International Journal of Computer Vision, vol. 57, no. 2, 2004., pp.137–154 3. Р.Гонсалес, Р.Вудс, «Цифровая обработка изображений», ISBN 5-94836-028-8, изд-во: Техносфера, Москва, 2005. – 1072 с. 4. Местецкий Л. М., «Математические методы распознавания образов», МГУ, ВМиК, Москва, 2002–2004., с. 42 – 44 5. Jan ˇSochman, Jiˇr´ı Matas, «AdaBoost», Center for Machine Perception, Czech Technical University, Prague, 2010 6. Yoav Freund, Robert E. Schapire, «A Short Introduction to Boosting», Shannon Laboratory, USA, 1999., pp. 771-780
1. P. Viola and M.J. Jones, «Rapid Object Detection using a Boosted Cascade of Simple Features», proceedings

Слайд 38https://habrahabr.ru/post/133909/

https://habrahabr.ru/post/133909/

Слайд 39Улучшение контрастности между фоном и кровеносными сосудами
G
Выбор цветового канала

Улучшение контрастности между фоном и кровеносными сосудамиGВыбор цветового канала

Слайд 40контрастно-ограниченное адаптивное выравнивание гистограммы (contrast limited adaptive histogram equalization –

clahe)

контрастно-ограниченное адаптивное выравнивание гистограммы  (contrast limited adaptive histogram equalization – clahe)

Слайд 41Удаление фона при помощи average фильтра
Маска сетчатки

Удаление фона при помощи average фильтраМаска сетчатки

Слайд 42автоматическое пороговое преобразование методом Otsu, медианный фильтр и фильтр по

длине

автоматическое пороговое преобразование методом Otsu, медианный фильтр и фильтр по длине

Слайд 43Фильтр Габора
Способен выделять прямые линии определённого размера и под определённым

углом

Фильтр ГабораСпособен выделять прямые линии определённого размера и под определённым углом

Слайд 44применить фильтр Габора с различными углами наклона ядра
рассчитать

максимальный отклик каждого пикселя на серию фильтров
слева – исходное изображение

после clahe, справа – результат применения серии габоровских фильтров
применить фильтр Габора с различными углами наклона ядра рассчитать максимальный отклик каждого пикселя на серию фильтровслева –

Слайд 45Удаление фона
слева – исходное изображение, полученное при помощи алгоритма background

exclusion, справа – результат применения серии габоровских фильтров

Удаление фонаслева – исходное изображение, полученное при помощи алгоритма background exclusion, справа – результат применения серии габоровских

Слайд 46Пороговое преобразование интенсивности изображения
слева – исходное изображение, полученное после перекрашивания

пикселей в соответствии с параметром чувствительности, справа – результат метода

Otsu
Пороговое преобразование интенсивности изображенияслева – исходное изображение, полученное после перекрашивания пикселей в соответствии с параметром чувствительности, справа

Слайд 47Marwan D. Saleh, C. Eswaran, and Ahmed Mueen. An Automated

Blood Vessel Segmentation Algorithm Using Histogram Equalization and Automatic Threshold

Selection // Journal of Digital Imaging, Vol 24, No 4 (August), 2011, pp 564-572
P. C. Siddalingaswamy, K. Gopalakrishna Prabhu. Automatic detection of multiple oriented blood vessels in retinal images // J. Biomedical Science and Engineering, 2010, 3, pp 101-107
www.isi.uu.nl/Research/Databases/DRIVE
www.ces.clemson.edu/~ahoover/stare

Marwan D. Saleh, C. Eswaran, and Ahmed Mueen. An Automated Blood Vessel Segmentation Algorithm Using Histogram Equalization

Слайд 48Результат движения головы и глаза при сканировании сетчатки

Результат движения головы и глаза при сканировании сетчатки

Слайд 49Алгоритм, основанный на методе фазовой корреляции

Алгоритм, основанный на методе фазовой корреляции

Слайд 50Алгоритм, использующий углы Харриса

Алгоритм, использующий углы Харриса

Слайд 51Алгоритм, основанный на поиске точек разветвления

Алгоритм, основанный на поиске точек разветвления

Слайд 52Reddy B.S. and Chatterji B.N. An FFT-Based Technique for Translation,

Rotation, and Scale-Invariant Image Registration // IEEE Transactions on Image

Processing. 1996. Vol. 5. No. 8. pp. 1266-1271.
Human recognition based on retinal images and using new similarity function / A. Dehghani [et al.] // EURASIP Journal on Image and Video Processing. 2013.
Hortas M.O. Automatic system for personal authentication using the retinal vessel tree as biometric pattern. PhD Thesis. Universidade da Coruña. La Coruña. 2009.
VARIA database
MESSIDOR database
Reddy B.S. and Chatterji B.N. An FFT-Based Technique for Translation, Rotation, and Scale-Invariant Image Registration // IEEE

Слайд 53Геометрия рук

Геометрия рук

Слайд 54Движения глаз
фиксация глаза на определенной точке дисплея
момент движения яблока

при перемещении взгляда с одной точки на другую

Движения глаз фиксация глаза на определенной точке дисплеямомент движения яблока при перемещении взгляда с одной точки на

Слайд 55Neurotechnology
http://www.neurotechnology.com/

Neurotechnologyhttp://www.neurotechnology.com/

Слайд 56Поведенческая биометрия

Поведенческая биометрия

Слайд 57Биометрия по электрокардиограмме

Биометрия по электрокардиограмме

Слайд 58Биометрия по почерку

Биометрия по почерку

Слайд 59Биометрия по походке

Биометрия по походке

Слайд 60Биометрия по особенностям чтения

Биометрия по особенностям чтения

Слайд 61Биометрия по особенностям набора текста

Биометрия по особенностям набора текста

Слайд 62Идентификация личности на основе данных о перемещениях (трекинга)

Идентификация личности на основе данных о перемещениях (трекинга)

Слайд 63Отпечатки пальцев 3D

Отпечатки пальцев 3D

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика