In einer aktuellen Veröffentlichung in Wissenschaft China Biowissenschaften, ein Forschungsteam unter der Leitung von Professor Jing-Dong Jackie Han und Ph.D. Student Xinyu Yang von der Universität Peking hat ein Deep-Learning-Modell zur Altersschätzung mithilfe nicht registrierter 3D-Gesichtspunktwolken erstellt. Sie schlugen außerdem den koordinatenweisen monotonen Transformationsalgorithmus vor, um altersbedingte Gesichtsmerkmale aus identifizierbaren menschlichen Gesichtern zu isolieren.
Das Team trainierte das Modell anhand von über 16,000 Instanzen von 3D-Gesichtspunktwolkendaten und erreichte dabei einen durchschnittlichen absoluten Fehler von etwa 2.5 Jahren. Das Modell erkennt die Rotationsinvarianz menschlicher Gesichter. In ihrer Analyse der Bedeutung von Gesichtsform und Hautton entwickelten sie den Algorithmus für koordinatenweise monotone Transformationen.
Der Algorithmus kann Gesichter verzerren, ohne die relativen Positionen der Gesichtselemente zu ändern. Das Team stellte fest, dass die Deep-Learning-Modelle das Alter von Gesichtern vor und nach der Anwendung des Transformationsalgorithmus in verschiedenen Szenarien genau und konsistent schätzen konnten, was zeigte, dass die Transformationen altersbedingte Gesichtsmerkmale effektiv bewahren.
Bei visuellen Tests stellten die Probanden jedoch einen deutlichen Rückgang der Genauigkeit und Reaktionsgeschwindigkeit bei der Beurteilung verwandelter Gesichter fest. Darüber hinaus konnten rechnergestützte Gesichtsverifizierungsmodelle, die auf normale Gesichtsformen trainiert wurden, transformierte Gesichter nicht erkennen.
Unter Berücksichtigung der Ähnlichkeiten und Unterschiede bei Altersschätzungs- und Identifizierungsaufgaben schlug das Forschungsteam eine Richtlinie zum Schutz von Gesichtsdaten vor. Dieser Leitfaden, der koordinatenweise monotone Transformationen und selektive Datenbereitstellung umfasst, zielt darauf ab, eine theoretische Grundlage für die Verwaltung von Gesichtsdatenzentren oder öffentlichen Datensätzen bereitzustellen.