Apr 30, 2023
Ein hoch
Band Kommunikationsbiologie
Kommunikationsbiologie Band 5, Artikelnummer: 1318 (2022) Diesen Artikel zitieren
3033 Zugriffe
1 Zitate
71 Altmetrisch
Details zu den Metriken
Wir präsentieren ein wirtschaftliches Bildgebungssystem mit integrierter Hardware und Software, um multispektrale Bilder von Schmetterlingen mit hoher Effizienz aufzunehmen. Diese Methode erleichtert den Vergleich von Farben und Formen zwischen Arten auf feinen und breiten taxonomischen Skalen und kann für andere Insektenordnungen mit größerer Dreidimensionalität angepasst werden. Unser System kann sowohl die Rücken- als auch die Bauchseite fixierter Proben abbilden. Zusammen mit unserer Verarbeitungspipeline können die deskriptiven Daten zur systematischen Untersuchung multispektraler Farben und Formen auf der Grundlage einer vollständigen Flügelrekonstruktion und eines universell anwendbaren Grundrisses verwendet werden, der Flügelmuster für Arten mit unterschiedlichen Flügelformen (einschließlich Schwänzen) und Venationssystemen objektiv quantifiziert. Grundlegende morphologische Messungen wie Körperlänge, Brustkorbbreite und Antennengröße werden automatisch generiert. Dieses System kann die Menge und Qualität der aus Museumsexemplaren extrahierten Merkmalsdaten exponentiell steigern.
Nanostrukturen in der Nagelhaut von Insekten haben viele neuartige technische Designs inspiriert1,2,3,4,5. Da Insekten bekanntermaßen in der Lage sind, Wellenlängen jenseits des sichtbaren Spektrums wahrzunehmen, können wichtige Daten verloren gehen, wenn die zur Untersuchung der Nagelhaut von Insekten verwendeten Bildgebungssysteme nicht in der Lage sind, den gesamten Bereich potenziell relevanter elektromagnetischer Wellenlängen zu erfassen. Aktuelle Studien zur Flügelfarbe von Lepidopteren (Schmetterlingen und Nachtfaltern) (die wir in dieser Arbeit als Abkürzung für Reflexionsgrad verwenden, unabhängig von jeglichem visuellen System) und Form sind oft auf weniger als 100 Exemplare beschränkt3,6 aufgrund zeitintensiver Einzelexemplare. basierte Verfahren7,8,9 wie die Notwendigkeit, die Flügel von den Exemplaren zu lösen2,4,10 oder einzelne Exemplare mit ihren Etiketten anzuordnen und abzubilden. Auch die Entwicklung von Systemen, die der Vielfalt der Flügelformen Rechnung tragen9,11, stellt eine große Herausforderung dar.
Die Lepidoptera stellen ein ideales Ziel für die Bildgebung dar, da die zweidimensionale Beschaffenheit der festgehaltenen Exemplare der meisten Schmetterlinge und vieler Nachtfalter sie für die Analyse leichter handhabbar macht. Es werden geeignete Methoden benötigt, die multispektrale Bilder von Schmetterlingen objektiv, systematisch und effizient verarbeiten können. Die größten Herausforderungen sind zweierlei: (1) Entwicklung eines Hochdurchsatz-Bildgebungssystems und (2) Identifizierung eines universell anwendbaren Grundrisses oder Archetyps, der verallgemeinert werden kann, um Flügeleigenschaften über Familien hinweg zu erfassen.
Herkömmlicherweise können die multispektralen Eigenschaften der Oberfläche eines Objekts auf zwei Arten gemessen werden12,13,14,15. Ein hyperspektrales Spektrophotometer bietet eine hohe spektrale Auflösung (~0,1 nm) für einen einzelnen Punkt, während mit der multispektralen Bildgebung schnell zweidimensionale Bilder mit hoher räumlicher Auflösung erstellt werden können, allerdings mit einem gewissen Einbußen bei der spektralen Auflösung, indem das Spektrum in mehrere Wellenlängenbänder von ~100–200 unterteilt wird nm (im Folgenden als „Bänder“ bezeichnet) und fotoähnliche Messungen über einen großen Bereich mit einer Kamera durchführen. Einige hochmoderne Bildgebungssysteme haben eine 10–20-mal feinere spektrale Auflösung (~5–10 nm), kosten aber 70-mal mehr als unsere Geräte (~350.000 US-Dollar). Bei der Fernerkundung nutzen Satelliten multispektrale Bildgebung, um Daten über große Gebiete weltweit effizient zu sammeln (z. B. Advanced Very-High-Resolution Radiometer [AVHRR] und Moderate Resolution Imaging Spectroradiometer [MODIS]). In ähnlicher Weise können kommerzielle Multispektralkameras objektive multispektrale Messungen auf zweidimensionalen Oberflächen liefern, aber solche mit hoher räumlicher Auflösung sind für die meisten einzelnen Labore oder Museumssammlungen unerschwinglich teuer und weisen eine relativ langsame Bildeffizienz auf, was ihre Verwendung bei der Probenbildgebung mit hohem Durchsatz erschwert. Wir haben daher ein skalierbares Hochdurchsatz-Bildgebungssystem entwickelt, das auf einer modifizierten Consumer-DSLR-Kamera basiert, die eine Museumsprobenschublade im Cornell-Stil (450 × 390 × 67 mm) aufnehmen kann und in der Lage ist, multispektrale Daten von einer großen Anzahl biologischer Proben gleichzeitig zu erfassen .
Eine weitere entscheidende Komponente für den Vergleich einer taxonomisch vielfältigen Gruppe von Insekten ist die Verwendung eines geeigneten Analyserahmens, der für eine Reihe von Morphologien robust ist. Bisher basierte der gebräuchlichste Ansatz zum Vergleich von Flügelformen und Farbmustern bei Lepidopteren weitgehend auf der Flügeladerung9,16,17, die in hohem Maße mit der Evolutionsgeschichte und der physiologischen Entwicklung der untersuchten Arten korreliert. In seiner bahnbrechenden Studie beschrieb Frederick Nijhout einen „allgemeinen Grundplan“ zur Analyse der Musterentwicklung bei Nymphalidae und anderen Schmetterlingen auf der Grundlage von Variationen im Venationsmuster und anderen morphologischen Merkmalen, geleitet von einem relativ kleinen Satz von Entwicklungsregeln18. Neuere evolutionäre Entwicklungsansätze haben sich von der Analyse von Form und Morphologie per se abgewandt und sich stattdessen auf die Identifizierung von Hauptregulationsgenen (z. B. Optix, Cortex Wnt A) konzentriert, die mit der Flügelfarbmusterung verbunden sind, sowie auf die zahlreichen cis-regulatorischen Elemente, die diese verstärken Effekte4,10,19,20,21.
Während diese Fortschritte unser Verständnis der Entwicklungsgrundlagen von Flügelfarbmustern erweitert haben, haben sie sich nicht mit dem praktischen Problem befasst, wie man robuste Vergleiche stark variierender Flügelmorphologien anstellen kann. Beispielsweise variiert die Anzahl der Flügeladern zwischen verschiedenen Schmetterlingsfamilien16,22, sodass es nicht möglich ist, ein einziges Venensystem für alle Schmetterlinge zu verwenden. Auch die Flügelform variiert zwischen den Arten, wobei sich viele Lycaenidae durch Hinterflügelschwänze auszeichnen, die bei nahen Verwandten nicht zu finden sind23,24. Infolgedessen wurden die meisten Studien zur familienübergreifenden Flügelmorphologie nur an den Vorderflügeln durchgeführt, wobei Flügelmetriken verwendet wurden, die sich auf den Flug auswirken, wie z. B. Seitenverhältnis und Flächenmoment25,26. Für multispektrale Farben und Muster stehen viele Werkzeuge zur Verfügung27,28,29, ihre Anwendung ist jedoch weitgehend auf einzelne Kladen mit ähnlicher Flügeladerung2,9,28 oder Form7,28 beschränkt.
Biologische Museen bewahren den Reichtum der biologischen Exemplare der Welt, doch Studien zu Flügelfarbmustern haben sich bisher üblicherweise auf Exemplare außerhalb des Museums konzentriert, da für diese Forschung intakte Vorder- und Hinterflügel erforderlich sind2,4,10. Darüber hinaus erfordern bildgebende Verfahren für diese Studien häufig die Disartikulation von Proben, was ihren Nutzen für zukünftige Forschungen einschränkt. Unser Bildgebungssystem überwindet einige dieser Schwierigkeiten, indem es ganze fixierte Proben zerstörungsfrei über einen anpassbaren Bereich von Wellenlängenbändern abbildet und sie automatisch mit einem analytischen Rahmen verarbeitet, der für verschiedene Morphologien bei Schmetterlingen, einschließlich variabler Schwanz- und Flügelformen, robust ist.
Die zweidimensionale Beschaffenheit vieler fixierter Lepidoptera-Proben ermöglicht es uns, einige technische Überlegungen wegzulassen, wie z. B. die variablen Einfallswinkel, die bei der Abbildung von 3D-Objekten sorgfältig berücksichtigt werden müssen, und unser multispektrales Bildgebungsgerät mit seiner maßgeschneiderten Plattform kann beides abbilden die dorsalen und ventralen Seiten der Proben (Abb. 1a, 2 und 3). Die ersten beschreibenden Daten können für die allgemeine multispektrale Objekterkundung und die Digitalisierung von Museumsexemplaren verwendet werden (Abb. 1b); Die verarbeiteten Daten, die auf den anfänglichen Beschreibungsdaten aufbauen, können zur Untersuchung multispektraler Farben verwendet werden. Nach der Rekonstruktion des Vorder- und Hinterflügels (Abb. 1c) kann der Entwurf des universell einsetzbaren Analyserahmens (Abb. 1d und 4a) die Flügelschwänze objektiv quantifizieren und verschiedene Flügelformen und Venationssysteme berücksichtigen (Abb. 1e und 4b). Das Framework kann auch zur systematischen Untersuchung multispektraler Farbmuster (Abb. 1g, h und 5) und zur Bereitstellung grundlegender morphologischer Messungen (Abb. 1f) eingesetzt werden.
Der Arbeitsablauf verläuft von oben nach unten und die Hauptfunktionen werden hervorgehoben. a Ein beispielhaftes Bild, das die hohe Durchsatzkapazität unseres Bildgebungssystems zeigt. b Multispektrale Bilder (obere zwei Reihen) können durch Hauptkomponentenanalyse als Falschfarbenbilder (untere Reihe) zusammengefasst werden, wobei Rot PC1, Grün PC2 und Blau PC3 entspricht. c Die vollständige Flügelform kann mithilfe von Informationen aus der dorsalen und ventralen Segmentierung virtuell rekonstruiert werden. d Ein universelles Koordinatensystem für jeden Flügel kann automatisch basierend auf vier Orientierungspunkten (markiert als rote Punkte) generiert werden. e Zusammengefasste Flügelformen zweier Schmetterlingsgruppen: Lycaenidae auf der linken Seite und Papilionidae und Nymphalidae auf der rechten Seite. Schwanzwahrscheinlichkeiten (Tail Prob.), Krümmung (Curv.) und der Standardfehler der Schwanzkrümmung (SE of Tail Curv.) sind entsprechend farblich gekennzeichnet. f Körper- und Antennenmorphologien können während der Bildverarbeitung automatisch gemessen werden. g Die Zusammenfassung des Reflexionsgrads von vier beispielhaften Spektralbändern (RGB und UV) von drei Proben wird angezeigt. h Die Variation des UV-Reflexionsvermögens einer Gruppe von Schmetterlingen wird als „UV-Signal“ zusammengefasst, das die durchschnittlichen Kontraste des UV-Reflexionsvermögens darstellt. Blau zeigt ein niedriges Signal an und Rot zeigt ein hohes Signal an.
a Die verborgenen vorgestanzten Schlitze sind blau dargestellt. Weiße gestrichelte Linien, die den im Bild angezeigten Bereich angeben, wurden zur Benutzerführung durch schwarze genähte Linien auf der Bildplattform gekennzeichnet. Die Maßstabsleiste und die Schwarz/Weiß-Standardreferenzen befinden sich in der unteren linken Ecke. Einzelheiten zur mehrschichtigen Schaumstoffunterlage finden Sie in Abb. 6. b Die Beispiele zeigen, wie die dorsalen und ventralen Seiten der Proben auf der Bildgebungsplattform platziert werden.
a Ein Satz von sieben Rohbildern im NEF-Format; b Automatische Erkennung der Maßstabsleiste und der Standard-Weiß- und Schwarz-Referenzen; c Reflexionskalibrierung gemäß den Standard-Weiß- und Schwarz-Referenzen; d Einzelne Probenbilder werden durch rote Begrenzungsrahmen extrahiert.
a Die vollständige Flügelform kann anhand der dorsalen und ventralen Segmentierung virtuell rekonstruiert werden. a, b Flügelgitter können dann nach c Definieren der Heckbereiche generiert werden. Im linken Feld stellt die rote Grenze die rekonstruierte grobe Form eines Hinterflügels basierend auf den oberen fünf Harmonischen dar, nachdem sie durch elliptische Fourier-Analyse in den Frequenzbereich projiziert wurde. b Universelle Flügelgitter können verformte oder gebrochene Flügel aufnehmen (z. B. IV und VIII). I. Smerinthus cerisyi (Sphingidae); II. Catocala connubialis (Erebidae); III. Evenus Coronata (Lycaenidae); IV. Heliconius melpomene (Nymphalidae); V. Allancastria cerisyi (Papilionidae); VI. Atrophaneura hector (Papilionidae); VII. Kallima inachus (Nymphalidae); VIII. Corades medeba (Nymphalidae).
a Zusammengefasste gitterförmige Reflexionen in blauen, grünen und roten Bändern können b auf die durchschnittlichen Flügelformen einer ausgewählten Gruppe von Proben projiziert werden. c, d UV-Signal (der durchschnittliche UV-Kontrast zwischen den Arten) zeigt die häufigsten, wahrscheinlich stark UV-variablen Bereiche auf den Flügeln. e, f Variation der UV-variablen Regionen zwischen Arten, was auf Regionen mit UV-Muster hinweist, die stark konserviert sind (blau) im Vergleich zu Regionen, die sich aktiver verändern (rot).
Unser multispektrales Bildgebungssystem mit hohem Durchsatz stellt einen Kompromiss zwischen der Geschwindigkeit der herkömmlichen Bildgebung und dem Bedarf an objektiven Spektraldaten dar. Das System besteht aus einer hochauflösenden Spiegelreflexkamera (Nikon D800), deren interner UV-IR-Filter entfernt wurde, um UV-sichtbare IR-Bilder zu ermöglichen, und die mit einem 28–80 mm f/3,3–5,6 G Autofokus-Nikkor-Zoomobjektiv ausgestattet ist ( Methoden). Die maßgeschneiderte Bildgebungsplattform wurde so konzipiert, dass sie beide Enden eines Stifts aufnehmen kann, sodass montierte Proben entweder dorsal oder ventral auf der Plattform positioniert werden können (Methoden; Abb. 2). Eine Referenzleiste mit Schwarz-Weiß-Standardreferenzen und einer Maßstabsleiste wird in jeder Bildgebungsrunde mit einem Klettverschluss an der Bildgebungsplattform befestigt (Methoden; Abb. 6a). Die ungefähren Kosten ohne die Rechenkosten betragen ca. 4500 $ (Ergänzende Informationen).
a Referenzleiste und b Entsprechende Materialien. c Bildgebungsplattform mit den versteckten vorgestanzten Schlitzen in Blau und d Entsprechende Materialien. (1) Schwarze (Spectralon Black Standard AS-001160-960, Labsphere) und weiße (Spectralon White Standard AS-001160-060, Labsphere) Standardreferenzen; (2) Klettstreifen mit Kleber (2,4″ × 2,4″); (3) Klebeetiketten für forensische Beweismittel (Maß 2 cm; A-6243); (4) Selbstklebendes, reißfestes, wasserfestes Fotopapier; (5) Schwarze Schaumstoffpolster aus Neoprenschwamm mit Klebstoff (12″ × 8″ × 1/4″); (6) Schwarzer Baumwollfaden; (7) Leinwand-Keilrahmen-Set (16″ × 20″); (8) Neoprenschwamm, schwarzer Gummischaum mit Klebstoff (12″ × 8″ × 1/8″); (9) Anti-Vibrations-Pads aus Neoprenschaum mit Klebstoff (6″ × 6″ × 1/4″); (10) Polyethylenschaum (18″ × 16″ × 1,5″). Detaillierte Informationen finden Sie in den Zusatzinformationen.
Für jeden Probensatz wird innerhalb von zwei Minuten eine Serie von sieben Bildern (im Folgenden als „Schubladenbilder“ bezeichnet; Abb. 3a) im Rohformat (*NEF) aufgenommen. Diese sieben Schubladenbilder entsprechen den folgenden Spektralbildbereichen (mit Details zu den Lichteinstellungen in den Methoden): Nur UV (λ = 360 nm; reflektiertes Licht, gefiltert durch einen Hoya U-340 UV-Passfilter an der Kamera; kombiniertes UV Reflexionsgrad und ungefilterte sichtbare Fluoreszenz (im Folgenden UVF genannt), bestehend aus sowohl reflektiertem UV-Licht als auch der gesamten UV-induzierten sichtbaren Fluoreszenz; zwei nahe IR-Banden (ungefiltertes reflektiertes Licht von λ = 740 nm [NIR] und 940 nm [fNIR]-LEDs); und drei im Sichtbaren (reflektiertes breitbandiges weißes LED-Licht, λ = 400–700 nm, ein ungefiltertes RGB und zwei RGB-Bilder, gefiltert durch lineare Polarisatoren in orthogonalen Winkeln, um die Polarisation entlang dieser Achse zu erkennen), die später in Rot, Grün und Blau zerlegt werden Je nach Größe können bis zu 35 fixierte Exemplare gleichzeitig abgebildet werden, wobei die Flügelseiten entweder nach dorsal oder ventral zeigen.
Alle rohen (multispektralen) Schubladenbilder werden in eine Hochleistungsrechnerumgebung hochgeladen, wo wir eine Pipeline zur automatischen Verarbeitung von Bildern entwickelt haben. Allerdings kann eine kleine Anzahl von Bildern (<5) mit angemessenen Ressourcen und längerer Laufzeit (Methoden) auf einem Desktop verarbeitet werden. Um den Farbverlauf der Proben zu erhalten, werden die Bilder zunächst von dcraw31 (einem Open-Source-Programm zur Verarbeitung von Rohbildformaten) in das linearisierte 16-Bit-TIFF-Format30 konvertiert. Diese 16-Bit-TIFF-Bilder werden dann mithilfe von MATLAB-Skripten analysiert. Ein Satz von sieben Schubladenbildern wird als eine Recheneinheit betrachtet, und dieselbe Probengruppe in der dorsalen Einheit verfügt über eine entsprechende ventrale Einheit (Methoden).
Jede Recheneinheit (Abb. 3a) wird in den Speicher eingelesen und die standardmäßigen Schwarz-Weiß-Referenzen werden auf dem weißen Bild (normales RGB) an ihren kreisförmigen Formen erkannt (Abb. 3b). Anstatt die genaue Anzahl der absorbierenden Photonen an jedem Sensor zu berechnen13,27, verwenden wir die Fernerkundungstechnik32, bei der alle Pixelwerte gemäß den Schwarz-Weiß-Referenzstandards in Reflexionseinheiten (Albedo) (zwischen 0 und 1) umgewandelt werden (Methoden; Abb . 3c). Der Maßstab auf dem Schubladenbild wird automatisch durch lokalen Merkmalsabgleich mit einem Referenzbild desselben Maßstabs erkannt und die Anzahl der Pixel pro Zentimeter abgeleitet (Methoden; Abb. 3b).
Variabilität bei der Fixierung der Probe und optische Aberration des Kameralinsensystems würden zu Messfehlern während des Bildgebungsprozesses führen. Wir schätzen, dass dieser Fehlerbereich bei der Längenmessung weniger als 0,4 % (oder 0,16 mm eines 4 cm großen Schmetterlings) beträgt (Methoden; Abb. 7). Auch wenn der Fehler winzig ist, lassen wir an den Rändern des Schmetterlings einen deutlichen Rand von 5 cm Bei der Abbildung von Präparaten wird darauf geachtet, relativ große Aberrationen in der Nähe der Bildgrenzen zu vermeiden (Abb. 7d).
a Abbildung von Maßstabsnormalen, die in verschiedenen Höhen auf Stiften angebracht sind. b Ansicht des vom Bildgebungssystem aufgenommenen Bildes. c, d Häufigkeitsverteilung c und räumliche Verteilung d von Größenanomalien in absoluten Prozentsätzen im Vergleich zu einem 4 cm großen Schmetterling. e, f Der Rohwert für d und e wird bereitgestellt. Die gestrichelte Linie in c und e gibt den Median bzw. Null an. Der durch die rote gestrichelte Linie in d, f begrenzte Bereich ist der Ort, an dem wir unsere Proben für die Bildgebung platzieren.
Die Nachbearbeitung wird auf die UV-, NIR- (740 nm), fNIR- (940 nm) und UVF-Bänder angewendet, um der unterschiedlichen Sensorempfindlichkeit gegenüber diesen Wellenlängen in den roten, grünen und blauen Kanälen Rechnung zu tragen (Methoden; Abb. 3c). , mit Ausnahme des RGB-Weißbandes, das keiner Nachbearbeitung bedarf. Ein Polarisationsindex wird als absolute Differenz zwischen den beiden orthogonal polarisierten RGB-Weißbildern berechnet. Dieses einzelne Polarisationsmaß kann auch einen Hinweis auf das Auftreten von strukturbedingten Verfärbungen liefern, was darauf hindeutet, ob zusätzliche Studien durchgeführt werden sollten, um die Polarisation bei anderen Betrachtungs- oder Einfallswinkeln des Lichts zu untersuchen33.
Unsere vorläufigen Beobachtungen zeigten, dass Schmetterlinge im fNIR-Band (940 nm) den höchsten Kontrast zum Hintergrund aufweisen. Deshalb haben wir diese Eigenschaft ausgenutzt, um einzelne Probenbilder aus Schubladenbildern zu erkennen und zu extrahieren. (Methoden; Abb. 3d). Die Mehrbandbilder jeder Probe wurden auf der Grundlage affiner geometrischer Transformationen wie Translation, Rotation, Skalierung und Scherung zu einem geschichteten Bildstapel (Abb. 8a, b) ausgerichtet. Dieser Schritt ist relativ zeitaufwändig und die Verarbeitungszeit hängt in etwa von der Probengröße ab. In dieser Phase kann der registrierte Multiband-Probenbildstapel, unsere ersten beschreibenden Daten, entweder als Teil der erweiterten Daten eines Exemplars archiviert oder durch unsere Pipeline weiter in verarbeitete Daten auf höherer Ebene umgewandelt werden, die Form-, Farb- und Mustermerkmalsdaten erzeugen . Der Einfachheit halber haben wir eine zusätzliche binäre Maskenebene mit den für die Hintergrundentfernung erforderlichen Informationen (Methoden) eingefügt.
a Das mehrschichtige Format („Zellenformat“, der in MATLAB verwendete Fachbegriff) wird verwendet, um die beschreibenden Daten für eine einzelne Seite einer Probe zu enthalten. b Das Auftreten einiger Exemplarschichten des südafrikanischen Seegrases Chrysoritis pyramus. Die tatsächliche Reihenfolge der Ausgabeebenen finden Sie in den Zusatzinformationen. c Variationen in den Schuppeneigenschaften, die das UV-Reflexionsvermögen beeinflussen, können in einem einzelnen Exemplar von Hebomoia glaucippe gefunden werden, hier im Vergleich zu C. pyramus auf der linken Seite und A. wildei auf der rechten Seite.
Die vervollständigten anfänglichen Beschreibungsdaten enthalten registrierte Mehrbandbilder (einschließlich UV, Blau, Grün, Rot, NIR, fNIR, Fluoreszenz [RGB] und Polarisation [RGB]), eine Hintergrundentfernungsmaske und die Maßstabsleiste) (Abb. 3a und 8a, b). Obwohl weitere Analysen erforderlich sind, um spezifische Merkmalsdaten aus diesen Datensätzen zu extrahieren, können sie leistungsstarke visuelle Hilfsmittel bei der Entdeckung neuartiger Flügelschuppentypen und -strukturen sein. Beispielsweise zeigen die orangefarbenen Flecken an den Vorderflügelspitzen von Hebomoia glaucippe (L.) ein starkes UV-Reflexionsvermögen14,15 (Abb. 3c und 8c), die orangefarbenen Flecken von Chrysoritis pyramus (Pennington) jedoch nicht, was auf einen Unterschied in der zugrunde liegenden Art schließen lässt physikalischer Mechanismus, der diese Farben erzeugt. Ebenso zeigt der weiße Hintergrund von Hebomoia glaucippe ein geringes UV-Reflexionsvermögen14, aber die weißen Flecken von Arhopala wildei Miskin (und vielen anderen Arten mit weißen Flecken) weisen ein signifikantes UV-Reflexionsvermögen auf. (Abb. 8c). Mit einem geeigneten Konverter können diese anfänglichen Beschreibungsdaten in Softwarepaketen27,29 für Analysen verwendet werden, die eine Reihe visueller Systeme von Tieren berücksichtigen. Es besteht ein enormes Potenzial für die Entdeckung multispektraler Phänomene, die derzeit seit Jahrhunderten in Museumssammlungen auf der ganzen Welt verborgen sind, allein durch die Verwendung dieser ersten beschreibenden Daten.
Eine Reihe komplexerer Analysepipelines wurde entwickelt, um multispektrale Reflexions- und Formmerkmale weiter zu quantifizieren. Nach einer detaillierten Segmentierung verschiedener Körperteile werden benutzerdefinierte Pipelines zur „Schwanzquantifizierung“ und „Flügelgitterkoordinate“ angewendet, um Informationen über Schwänze, Flügelform und Multiband-Reflexionsmerkmale aufzuzeichnen.
Unsere anfänglichen beschreibenden Daten umfassen einen Gesamtumriss der Probe. Um diesen Umriss jedoch in verschiedene Körperteile zu segmentieren, werden wichtige Orientierungspunkte auf der Grundlage herkömmlicher Geometrie identifiziert, einschließlich, aber nicht beschränkt auf die mathematische Suche der Topologie der Umrisse der Probe (beschriftet als Kreuze und Kreise). in Abb. 9b). Wir integrieren zwei Segmentierungsmethoden. Die einfache Segmentierung (vollautomatische Segmentierung von Probenformen anhand von Orientierungspunkten mit geraden Linien) kann verwendet werden, wenn Daten aus der zeitintensiveren manuellen Vorder- und Hinterflügelsegmentierung fehlen. Die manuell definierte Vorder- und Hinterflügel-Segmentierungspipeline ist halbautomatisiert, mit menschlichem Input über ein eigenständiges Softwarepaket, das aus einem GitHub-Repository namens „moth-graphcut“32 adaptiert wurde, und die daraus abgeleiteten Segmentierungen sehen natürlicher aus (Abb . 9c). Die grundlegende Segmentierung ist hocheffizient und erfordert keine menschliche Eingabe, ist aber weniger genau (Überprüfung und Korrektur werden später besprochen). Im Gegensatz dazu bietet die manuelle Vorder- und Hinterflügelsegmentierung eine hohe Genauigkeit der natürlichen Flügelform und der vollständigen Flügelrekonstruktion mit einem Durchsatz von etwa 100 verarbeiteten Probenbildern pro Stunde. Bei beiden Methoden werden neben der Körperteilsegmentierung auch weitere morphologische Informationen wie Körpergröße, Körperlänge, Brustkorbbreite, Antennenlänge, Antennenbreite und Antennenkrümmung automatisch gemessen und erfasst (Methoden; Abb. 1f).
a Hintergrundentfernung basierend auf einem fNIR-Bild. b Mit primären Orientierungspunkten (dargestellt durch Kreuze und Kreise) und Vektoren, die die symmetrischen Achsen identifizieren (dargestellt durch Segmente in der durchgezogenen roten Linie und der blauen gestrichelten Linie), kann die Probenmaske automatisch segmentiert werden c Mit oder ohne manuell definierte Vorder-Hinterflügel-Teilung des Überlappungsbereichs. Die in (a–c) gezeigte Art ist Oxylides faunus. d Es kann eine statistische Zusammenfassung (Mittelwert, Variation und Patchgröße) aller Bänder für beide Seiten (dorsal und ventral) aller Körperteile (vier Flügel und der Körper) berechnet werden. e Statistische Ergebnisse von Exemplarbanden basierend auf 17 Exemplaren aus 7 verschiedenen Familien. Die Mittellinie stellt den Median dar; Boxgrenzen, oberes und unteres Quartil; Whiskers, 1,5-facher Interquartilbereich; Punkte, Ausreißer. Statistisch signifikante Unterschiede zwischen der dorsalen und der ventralen Seite (unter dem zweiseitigen t-Test) sind mit Sternchen gekennzeichnet: *, 0,05; **. 0,01.
Sobald die Proben in Körperteile segmentiert sind, kann das multispektrale Reflexionsvermögen jedes Körperteils zusammengefasst werden (Abb. 9d). Zusätzlich zu den Analysen, die auf individueller Ebene mit den ersten deskriptiven Daten durchgeführt werden können, können detailliertere Vergleiche zwischen der Rücken- und Bauchseite verschiedener Körperteile durchgeführt werden. Wenn wir beispielsweise das Reflexionsvermögen von 17 Exemplaren aus 7 verschiedenen Familien analysieren, können wir beobachten, dass der dorsale Hinterflügel ein deutlich höheres UV-Reflexionsvermögen aufweist als seine ventrale Seite (Abb. 9e), möglicherweise um die Signalübertragung zu unterstützen, während die ventrale Seite des Körpers und die Vorderflügel zeigen ein höheres fNIR-Reflexionsvermögen als die Rückenseite (Abb. 9e), möglicherweise um die Thermoregulation zu unterstützen. Es ist jedoch eine zusätzliche Verarbeitung erforderlich, um kohärente Merkmalsdaten innerhalb einzelner Körperteile zu erstellen, die mit weiter entfernt verwandten Taxa vergleichbar sind.
Um multispektrale Flügelmerkmale über verschiedene Flügelformen hinweg zu vergleichen, haben wir eine verallgemeinerbare Pipeline entwickelt, die aus vier Hauptkomponenten besteht (Abb. 4): (1) vollständige Rekonstruktion der Flügelform, (2) Identifizierung sekundärer Orientierungspunkte, (3) Erzeugung eines Flügelgitters und ( 4) Zusammenfassung des Hinterflügelschwanzes. Dieses System überwindet die besondere Schwierigkeit, verschiedene Hinterflügelschwänze zu berücksichtigen und zu quantifizieren, und die verarbeiteten Daten, die aus dieser Pipeline generiert werden, können auch direkt in Formanalysen angewendet werden.
Bei Schmetterlingen und vielen anderen geflügelten Insekten überlappt häufig ein Bereich des Hinterflügels einen Teil des Vorderflügels, was die automatische Formrekonstruktion erschwert. In unserem Bildgebungsparadigma wird der Hinterflügel einer Probe im dorsalseitigen Bild vom Vorderflügel überlappt, und der Vorderflügel wird im ventralseitigen Bild vom Hinterflügel überlappt (Abb. 4a). In unserem Algorithmus werden die manuell definierten Vorderflügelgrenzen verwendet, um den fehlenden Hinterflügelrand auf der Rückenseite und den unvollständigen Vorderflügelrand auf der Bauchseite eines Exemplars zu rekonstruieren. Nach der Rekonstruktion eines kompletten Flügels werden sekundäre Orientierungspunkte automatisch identifiziert (Abb. 1d und 4a). Die Schwänze an den Hinterflügeln werden vor der weiteren Verarbeitung rechnerisch von den Flügelkörpern getrennt (Einzelheiten zu Schwanzanalysen finden Sie unter „Methoden“). Anschließend wird ein Satz Flügelgitter entsprechend den sekundären Orientierungspunkten jedes Flügels erstellt (Abb. 1d und 4a). Dieses Gittersystem, das die Silhouette eines Exemplars entsprechend dem Schwerpunkt einer Reihe von vier Ecken unterteilt, ist robust gegenüber den Formunterschieden zwischen verschiedenen Arten, selbst bei entfernt verwandten Schmetterlingen (z. B. Sphingidae und Lycaenidae; Abb. 4b). Darüber hinaus bleiben die meisten dieser Gitter auch bei mäßigen Flügelschäden stabil (IV und VIII in Abb. 4b). Die Standardauflösung dieser Matrizen beträgt 32 × 32, sie kann jedoch auch an Proben mit größeren Flügelflächen angepasst werden.
Die Quantifizierung von Hinterflügelschwänzen und Flügelformen basiert ebenfalls auf diesem Gittersystem (Methoden; Abb. 1e und 4c) und kann auf alle Schmetterlinge angewendet werden (Abb. 1e), ohne dass eine vorherige Identifizierung des Vorhandenseins oder Fehlens von Schwänzen erforderlich ist . Im Gegensatz zu anderen Paketen28 ermöglicht unsere Flügelgitterpipeline den Vergleich verschiedener Flügelformen, insbesondere der Hinterflügel, mit unterschiedlichen Venationssystemen und Schwänzen (Abb. 4b). Die gerade Anzahl gerasterter Anker (z. B. 128 Punkte in einem 32 × 32-Gittersystem) auf der Silhouette eines Flügels kann als „Markierungen“ für Formvergleiche in anderen Anwendungen verwendet werden9,11,34 (Abb. 4b). Es kann auch zur Zusammenfassung multispektraler Flügelmuster verwendet werden.
Basierend auf diesem Flügelgittersystem können der durchschnittliche Reflexionsgrad und die Variation jedes Gitters berechnet werden (Abb. 1g und 5a) und die Ergebnisse einer Flügelanalyse können in einer 32 × 32 x N-Matrix gespeichert werden (wobei N die Zahl ist). von Wellenlängenbändern). Die Auflösung von 32 × 32 wurde durch die Größe der von uns bearbeiteten kleinen Proben bestimmt; Beispielsweise wird es sinnlos, Daten für einen Flügel mit 50 × 50 Pixeln mit einer feineren Auflösung (z. B. 64 × 64) zusammenzufassen. Dieses Standardformat erleichtert weitere statistische Analysen bei einer Vielzahl von Schmetterlingsgruppen mit unterschiedlichen Flügelformen.
Die Ergebnisse von Flügelmusteranalysen können für eine intuitivere Interpretation weiter auf eine durchschnittliche Flügelform einer Gruppe projiziert werden (Abb. 1h und 5b). Beispielsweise identifiziert der mittlere durchschnittliche Reflexionsgrad allgemein hellere Flügelbereiche (Abb. 5b) für RGB-Bänder. Regionen mit hohem UV-Kontrast scheinen für die intraspezifische UV-Signalübertragung wichtig zu sein35, und wir stellen fest, dass solche Regionen eher auf der Rückenseite von Lycaenidae, aber auf der Bauchseite von Papilionidae zu sehen sind (Abb. 5c, d). Wir können auch die Variabilität der Position dieser variablen Regionen mit hohem UV-Wert für eine bestimmte Gruppe von Taxa vergleichen, um zu zeigen, wo sie stark konserviert sind (niedrige Werte) und wo sie labiler sind (hohe Werte; Abb. 5e, f). Solche konservierten Regionen weisen darauf hin, dass die UV-Variation (die an der Signalübertragung beteiligt sein könnte) in dieser Flügelregion (ob vorhanden oder nicht) stark eingeschränkt und daher über verschiedene Arten hinweg stabil ist. Obwohl es sich hierbei um Beispiele handelt, die zur Veranschaulichung einer großen Vielfalt an Flügelformen ausgewählt wurden und nicht auf eine bestimmte wissenschaftliche Frage abzielen, liefern sie bereits erste biologische Erkenntnisse für weitere Untersuchungen und zeigen den Nutzen der Durchführung systematischer Studien zu Schmetterlingsmerkmalen mit diesem Ansatz.
Aufgrund der relativ großen Dateigrößen (~240 MB pro Bild) und der zeitintensiven Nachbearbeitungspipelines sind die meisten unserer Protokolle für die Ausführung in Hochleistungsrechnerumgebungen (z. B. Clustern) konzipiert. In solchen Umgebungen sind jedoch die Überprüfung und manuelle Korrektur der Bilder unpraktisch. Daher haben wir die Pipeline so konzipiert, dass ein kleiner Teil des Datensatzes zur Überprüfung und manuellen Korrektur auf einen lokalen Computer heruntergeladen werden kann. Insgesamt verfügt unsere Pipeline über fünf potenzielle Punkte, an denen eine Inspektion und manuelle Korrektur möglich ist (Methoden). An jedem Inspektionspunkt haben wir außerdem entsprechende Skripte und Benutzeroberflächen entwickelt, um den Datensatz auf lokalen Computern mit minimalem Ressourcenbedarf (geringer Speicher-, Arbeitsspeicher- und CPU-Anforderung) manuell zu korrigieren. Es wurden auch Skripte für benutzerdefinierte Visualisierungseinstellungen für Flügelform (einschließlich Schwanz) und Flügelmuster (Methoden, Zusatzinformationen und Datenverfügbarkeit) entwickelt.
Dieses System ermöglicht es Forschern, qualitativ hochwertige und informative multispektrale Bilder von Museumsexemplaren effizient zu erstellen und zu archivieren. Nachdem wir es bisher auf mehr als 10.000 Proben angewendet haben, haben wir herausgefunden, dass eine Cornell-Schublade mit Proben (ca. 60–80 Personen) mit unserem aktuellen Arbeitsablauf in 2 Stunden abgebildet werden kann. Diese Schätzung umfasst die Handhabung, Entnahme und Wiedereingliederung der Proben in die Sammlungen, obwohl die Bildgebungszeit typischerweise umgekehrt mit der Größe der Proben skaliert. Die Digitalisierung von Museumssammlungen ist zu einer Aufgabe von Institutionen auf der ganzen Welt geworden, wobei in den letzten Jahrzehnten eine große Anzahl von Exemplaren verarbeitet wurde36,37. Diese digitalisierten Aufzeichnungen wurden mit Unterstützung von Regierungen und Bürgern über verschiedene Kuratierungssysteme und Plattformen wie GBIF (http://www.gbif.org), iDigBio (http://www.idigbio.org) für wissenschaftliche und soziale Zwecke genutzt. , MCZBase (https://mcz.harvard.edu/database), Atlas of Living Australia (http://www.ala.org.au/), Map of Life (https://mol.org/) und ButterflyNet (http://www.butterflynet.org/). Bildgebungssysteme und -pipelines, die von der traditionellen 2D-Fotografie37 über 3D-CT-Scan38,39 bis hin zur 3D-Photogrammetrie39,40 mit oder ohne komfortable Benutzeroberflächen reichen, haben ebenfalls enorme Verbesserungen erfahren, oft mit entsprechend hohen Preisen. Unser multispektrales Bildgebungssystem stellt einen wichtigen Fortschritt für diejenigen dar, die an der spektralen Phänotypisierung mit hohem Durchsatz oder der kostengünstigen Digitalisierung von Proben interessiert sind. Wir hoffen, dass wir es weiterhin anpassen können, wenn der Bereich der Archivdigitalisierung ausgereift ist.
Wir erwarten eine Reihe potenzieller Verbesserungen des aktuellen Systems. Auf der Hardwareseite wird die Integration einer Rotationsebene in unsere aktuelle Bildgebungsplattform es Forschern ermöglichen, das Reflexionsvermögen bei verschiedenen Einfallswinkeln zu untersuchen33, was wir ursprünglich aufgrund der zweidimensionalen Natur der meisten Lepidoptera-Proben nicht berücksichtigt haben. Flügel, die vom Körper eines Insekts gelöst wurden, können von unserer derzeitigen Pipeline nicht aufgenommen werden, daher wird die Entwicklung einer Bildgebungsplattform zur Montage einzelner Flügel auch den potenziellen Nutzen dieses Systems erhöhen.
Auf der Softwareseite würde die Effizienz erheblich verbessert, wenn die Notwendigkeit manueller Eingaben verringert würde41. Beispielsweise kann mit einer ausreichend großen Anzahl zuvor verarbeiteter Bilder als Trainingssatz ein automatisch prüfendes und selbstkorrigierendes System auf Basis maschinellen Lernens entwickelt werden. Ein ähnlicher Ansatz könnte im Fall der Vorder-Hinterflügel-Segmentierung angewendet werden. Der Nutzen dieses Bildgebungsprotokolls in groß angelegten morphologischen Studien von Lepidoptera wird weiter vorangetrieben, wenn auch eine detailliertere Segmentierung von Körperteilen (z. B. Augen, Beine und Rüssel) entwickelt werden könnte.
Die aktuelle Version unterstützt nur Proben, deren Köpfe am oberen Bildrand positioniert sind. Eine automatische Rotationskorrektur könnte dabei helfen, Proben für eine optimale Weiterverarbeitung auszurichten. Auch die Benutzeroberfläche könnte verbessert werden, da das aktuelle Design eine Hin- und Her-Kommunikation zwischen einem Computercluster und dem lokalen Computer des Benutzers erfordert. Eine einheitliche Benutzeroberfläche könnte helfen, die Bedienung der komplexen Protokolle zu vereinfachen.
Um die Ergebnisse der hier beschriebenen Bildanalysen mit vorhandenen Erkenntnissen in den Bereichen Evolution und Entwicklungsbiologie zu verknüpfen, erscheint eine Integration der Daten mit evolutionären Erkenntnissen aus Flügeladersystemen unerlässlich. Das Flügelgittersystem bietet universell anwendbare Koordinaten für den Form- und Reflexionsvergleich verschiedener Lepidoptera-Taxa. Durch die Registrierung von Flügeladerungssystemen auf diesen Flügelgittern können die Beziehungen zwischen Äderung, multispektralem Reflexionsgrad und Formen weiter untersucht werden.
Museumssammlungen sind riesige Bestände an biologischen Informationen von grundlegendem und praktischem Wert, die nur darauf warten, ausgewertet zu werden. Die hier vorgestellte relativ kostengünstige und benutzerfreundliche Bildgebungshardware und Flügelgitterverarbeitungssoftware wird es Museumsforschern ermöglichen, die multispektralen Eigenschaften nicht nur von Schmetterlingen, sondern auch vieler anderer Insektengruppen mit hoher Effizienz zu untersuchen. Im Gegensatz zu anderen verfügbaren Paketen zur Untersuchung von Farben und Mustern wird es auch den Vergleich von Farben und Formen zwischen Arten mit sehr unterschiedlichen Flügelformen erleichtern. Diese Methoden können leicht angepasst werden, um andere ähnlich zweidimensionale Objekte zu untersuchen, beispielsweise die Blätter von Pflanzen oder kultivierte Mikroorganismen. Unsere Methoden haben das Potenzial, die Effizienz und Zugänglichkeit der Erfassung von Reflexions- und Formdaten für biologische Proben zu revolutionieren und eine reichhaltige Informationsquelle für Bioinnovationen aus Sammlungen weltweit bereitzustellen.
Das System besteht aus einer hochauflösenden Spiegelreflexkamera (Nikon D800), die mit einem 28–80 mm f/3,3–5,6 G Autofokus-Nikkor-Zoomobjektiv ausgestattet ist. Die Kamera ist in einem rechteckigen Lichtkasten montiert, der aus 0,125″ dickem 6061-Aluminiumblech (McMaster-Carr: 89015K18) besteht und auf einem T-Nut-Aluminiumrahmenprofil (McMaster-Carr: 47065T101) montiert ist, das 36 Zoll hoch und 24 Zoll ist breit und tief und unten offen. Im Inneren des Leuchtkastens sind an den Seiten 4 Reihen von LED-Strahlern in einer Höhe von 18 Zoll auf dicken Aluminiumkühlkörpern montiert, die nach oben und unten gedreht werden können, um eine direkte oder indirekte Beleuchtung zu ermöglichen. Jede LED-Bank besteht aus 4 Stern-Metallkern-Leiterplatten (MCPCBs, OSRAM Opto Semiconductors Inc.), eine für jedes Wellenlängenband und jeweils mit 6 einzelnen LEDs. Die vier Wellenlängenbänder sind Ultraviolett (UV 365 nm: LZ1-30UV00-0000), Weiß (Kaltweiß: LZ1-10CW02-0065), 740 nm IR (740 nm Rot: LZ4-40R308-0000) und 940 nm IR ( 940 nm Rot: LZ1-10R702-0000). Die Kamera ist auf einem Einbeinstativ (Sinvitron Q-555) verschraubt, das an einem Stück Rahmenprofil befestigt ist, das sich durch die Mitte des Leuchtkastens erstreckt, wobei das Objektiv 28,25 Zoll von der Unterseite entfernt gehalten wird. Ein motorisiertes Filterrad mit vier Schlitzen ist direkt unter dem Objektiv montiert, mit einem leeren Schlitz für ungefilterte RGB-Weiß-, UVF-, NIR- und fNIR-Bildgebung, einem Hoya U-340 UV-Passfilter für reine UV-Bilder und zwei Schwarzweißbildern KSM-Zirkularpolarisatoren, die in orthogonalen Winkeln montiert sind, für differenzielle weiße polarisierte Abbildung.
Ein Mikrocontroller (PJRC, Teensy++ 2.0) und ein Schritttreiber (Sparkfun, ROB-12779) steuern einen Motor (Mercury Motor, SM-42BYG011-25), der ein maßgeschneidertes Filterrad dreht, das auf einen Original-Home-Schalter verweist. LEDs werden von Reihen aktueller Controller (LEDdynamics, 3021-DI-100) angesteuert, wobei ein Mikrocontroller die Beleuchtungssteuerung koordiniert (PJRC, Teensy 3.2). Die Kamera wird durch die Open-Source-Software DigiCamControl (DigiCamControl V2.0.0) gesteuert. Die Koordination von Kamerabetrieb, LED-Beleuchtung, Filterradpositionierung und Bildübertragung erfolgt durch einen Desktop-Computer, auf dem ein benutzerdefiniertes LabView-Programm42 ausgeführt wird. Alle Software- und Hardware-Designs sind auf Anfrage erhältlich.
Um die Hintergrundreflexion zu minimieren, wurde das für den Bau der Plattform verwendete Material sorgfältig ausgewählt und auf spektrale Neutralität vom ultravioletten bis zum nahen Infrarotbereich getestet (Abb. 1a und 6). Wir haben eine Reihe vorgeschnittener Schlitze in die darunter liegende mehrschichtige Schaumstoffunterlage eingearbeitet, damit fixierte Proben leicht hineingedrückt und entweder an der Oberseite oder an der Spitze des Pins gehalten werden können, um eine effiziente dorsale und ventrale Bildgebung zu ermöglichen (Abb. 2b). ). Ein Referenzbalken mit schwarzen (Spektralon 2 % Reflexion AS-001160-960, Labsphere) und weißen (Spektralon 99 % Reflexion AS-001160-060, Labsphere) Standardreferenzen in kontrastierenden Hintergrundfarben und einer Skala ist beigefügt (Abb. 6). Wir haben das System anhand von Lepidoptera-Exemplaren aus der Entomologie-Sammlung des Museum of Comparative Zoology getestet. Die Abbildungsoberfläche jeder Probe wurde auf ungefähr die gleiche Höhe wie der Standardreferenzbalken eingestellt.
Ein Satz von sieben Schubladenbildern wird als eine Recheneinheit betrachtet, und dieselbe Probengruppe in der dorsalen Einheit verfügt über eine entsprechende ventrale Einheit. Jede Einheit wird unabhängig verarbeitet, sodass alle Einheiten im Cluster parallel verarbeitet werden können. Die jedem Job/jeder Einheit zugewiesenen Ressourcen sind auf zwei Kerne mit 24 Gigabyte Speicher für zwölf Stunden festgelegt. Die meisten Bilder können innerhalb von sechs Stunden vollständig verarbeitet werden, bei größeren Exemplaren (z. B. Papilionidae, Nymphalidae und Saturniidae) dauert es jedoch länger. Hier wurden mehrere Ansätze gewählt, um den Automatisierungsgrad für sehr unterschiedliche Probenbedingungen zu maximieren und die Bildverarbeitungszeit von Minuten auf Stunden zu erhöhen. Obwohl einfache Algorithmen effizient sein können, sind sie nicht verallgemeinerbar. Unter schnelleren, aber einfacheren Bedingungen würde die Anzahl der Ausreißer, die manuell behandelt werden müssten, zunehmen, was letztendlich mehr Zeit und menschliche Arbeit kosten würde, als in einer Situation mit hohem Durchsatz für die Berechnung aufgewendet wird.
Für jede Einheit wird ein Satz von sieben Schubladenbildern (Abb. 3a) verarbeitet, nachdem die Standard-Schwarzweißreferenzen erkannt wurden (Abb. 3b). Der Reflexionsgrad eines kreisförmigen Flecks in der Mitte jedes Standards kann für alle Bänder extrahiert werden (wobei die Ränder vermieden werden, die als Nebenprodukt häufiger Bildgebung leichter verzerrt oder versehentlich verunreinigt werden können) (Abb. 3b). Durch den Vergleich der abgebildeten Pixelintensität mit den bekannten Reflexionswerten der Kalibrierungsstandards können wir alle Pixel im Bild13,30 (Abb. 3c) mit den Reflexionswerten der vom Hersteller bereitgestellten Standardreferenzen neu skalieren und kalibrieren (Ergänzende Informationen). Die Werte können von einem Standard zum anderen leicht abweichen, daher müssen sie jeweils unabhängig gemessen werden, um eine erste Basislinie zu erhalten. Der Maßstab auf dem Schubladenbild kann automatisch durch lokalen Merkmalsabgleich mit einem gegebenen Referenzbild desselben Maßstabs erkannt werden. Merkmalspunkte aus den beiden Bildern (dem Referenz- und dem Schubladenbild) können extrahiert werden und die übereinstimmenden Punkte werden durch den beschleunigten Robust-Features-Deskriptor (SURF)43 identifiziert, der eine erweiterte Version der skaleninvarianten Feature-Transformation (SIFT)44 ist . Anschließend werden weitere herkömmliche Bildverarbeitungsverfahren (z. B. Erosion, Dilatation und Objektfilterung) auf den erfassten Maßstab angewendet, um die Anzahl der in einem Zentimeter dargestellten Pixel abzuleiten (Abb. 3b).
Die Nachbearbeitung jedes der verbleibenden Bänder erfolgt wie folgt: Aufgrund des nicht überlappenden Mosaikdesigns von RGB-Bayer-Filtern gibt es in Consumer-Spiegelreflexkameras mehr Rezeptoren für grünes als für rotes und blaues Licht13,30,45. In Umgebungen mit wenig RGB-Licht werden die von grünen Sensoren empfangenen Signale daher eher zur Schätzung der fehlenden Farbwerte verwendet, was unzureichende Signale kompensiert, die in roten und blauen Sensoren erkannt werden. Dieses Phänomen zeigte sich in unseren UV-Bildern, sodass der grüne Kanal bei jeder Kalibrierung eines UV-Bildes ausgeschlossen wurde. Für NIR (740 nm), das nicht weit vom erkannten Spektralbereich der blauen Sensoren einer Kamera entfernt liegt, wurde der blaue Kanal bei der Ableitung des NIR-Produkts (740 nm) nicht berücksichtigt, da die blauen Sensoren der Kamera möglicherweise immer noch in der Lage sind, Minuten zu erkennen NIR-Signale und führen somit zu Rauschen. Im Gegensatz dazu ist fNIR (940 nm) weiter von der Erkennung blauer Sensoren entfernt, daher wurde die normale RGB-Kalibrierung angewendet. Für die Fluoreszenz in allen RGB-Kanälen haben wir den Reflexionsunterschied zwischen UVF- und UV-Bildern berechnet (UVF zieht UV ab). In diesem Fall haben wir den grünen Kanal der UV-Bilder nicht vermieden, sonst hätten wir keine vernünftigen Intensitätswerte für die grüne Fluoreszenz erhalten. Die mit unserem Ansatz quantifizierte Fluoreszenz sollte nur mit Objekten verglichen werden, die mit einem ähnlichen Ansatz gemessen wurden. Da Fluoreszenz und einige Wellenlängenbänder (z. B. UV und Polarisation) im Vergleich zu anderen Wellenlängen typischerweise schwach sind, wurden die in diesem Dokument gezeigten Bilder für eine bessere Sichtbarkeit für den Menschen angepasst.
Aus Gründen der Kosteneffizienz und Benutzerfreundlichkeit verwenden wir in unserem Bildgebungssystem herkömmliche Objektive. Solche Objektive sind jedoch anfällig für räumliche und optische Verzerrungen, meist an den Bildrändern. Um das Ausmaß dieser Verzerrungen anhand der von unserem Bildgebungssystem durchgeführten Messungen zu quantifizieren, wurden dreißig Maßstabsbalken in unterschiedlichen Höhen fixiert (um eine extreme Variabilität der Fixierungshöhe zu simulieren) und auf der Bildgebungsplattform verteilt (Abb. 7a, b). Für jede Spalte und Zeile wurden unterschiedliche Pinnhöhen angegeben, was jedoch dazu führte, dass sich die Maßstabsbalken an den vier Ecken alle nahe der Oberkante des Pins befanden. Das RGB-Bild (Abb. 7b) wurde dann in der Bildverarbeitungspipeline analysiert. Für jeden Maßstabsbalken wurden die Position auf der Bildplattform und die durchschnittliche Pixelanzahl für einen Zentimeter aufgezeichnet.
Da unser Ansatz auf die große Diversität der Schmetterlinge ausgelegt ist, können Exemplare mit unterschiedlichen Flügelformen gemeinsam abgebildet werden (Abb. 3). Die grobe Position jeder Probe wird anhand des fNIR-Bildes bestimmt und ein rechteckiger Begrenzungsrahmen unter Einbeziehung von Pufferzonen an allen vier Kanten generiert (1/5 Probenhöhe nach oben; 1/15 Höhe nach unten; 1). /20 Breite zum linken und rechten Rand). Proben werden entsprechend den entsprechenden Begrenzungsrahmen zugeschnitten (Abb. 3d), und schwierige Ziele (z. B. Beine und Antennen sowie durch heruntergefallene Schuppen entstandene Flecken) auf der Bildgebungsplattform werden durch den Zuschneidealgorithmus automatisch herausgefiltert. Diese Funktion kann versehentlich winzige Proben entfernen. Daher ist der Schwellenwert so konzipiert, dass er manuell entsprechend der minimalen Probengröße festgelegt wird, die auf der Bildgebungsplattform abgebildet werden soll. Bemühungen, diesen Schritt zu automatisieren, waren nicht durchführbar. Wenn der Filtervorgang automatisiert ist, werden kleine Proben automatisch als Nicht-Probenobjekte herausgefiltert, wenn große und kleine Proben zusammen abgebildet werden. Beispielsweise kann die Größe eines gefallenen Papilioniden-Körperteils so groß sein wie die Größe eines kleinen Lycaenids mit einem fehlenden Flügel, und wir möchten Ersteres herausfiltern, Letzteres jedoch beibehalten.
Die Hintergrundentfernung, bei der eine Probe selektiv vom Bildhintergrund abgeschnitten wird, ist Teil des Segmentierungsprozesses und umfasst viele Schritte, daher wird hier nur der grobe Überblick über das Verfahren gegeben. Da die Intensität des Reflexionsvermögens von Art zu Art unterschiedlich ist, wurde ein Konsensansatz basierend auf drei Segmentierungstechniken verwendet, um das vielfältige Spektrum der Lepidopteren zu bewältigen: k-Means-Clustering28,46, Gaußsche Filterung29,47 und aktive Konturierung48,49. Die K-Means-Clustering-Technik unterteilt ein Falschfarben-RGB-Bild, das aus einem NIR- und zwei fNIR-Bändern besteht, in fünf Cluster (k = 5). Anschließend werden die Hintergrundfarbe und die Position identifiziert und die verbleibenden Bereiche als Probe gekennzeichnet. Die Gaußsche Filtertechnik nutzt einen Gaußschen Filter für das gesamte Bild, um relativ kleine Abweichungen innerhalb einer Probe zu glätten und gleichzeitig einen hohen Kontrast zwischen den Grenzen einer Probe und dem Hintergrund aufrechtzuerhalten, was herkömmliche Segmentierungstechniken erleichtert. Die aktive Konturierungstechnik (auch bekannt als „Snakes“) wurde auch angewendet, um einen objektiven Umriss einer Probe zu ermitteln, indem iterativ vom ursprünglich festgelegten Bereich zu den Objektgrenzen hin gewachsen wurde (Abb. 9a).
Antennen und Abdomen erfordern während der Segmentierungsphase manchmal zusätzliche Aufmerksamkeit, insbesondere wenn sie andere zu segmentierende Körperteile überlappen oder berühren. Unter dem Bauch hervorstehende Beine können das genaue Beschneiden des Hinterflügels beeinträchtigen. Durch einfache Bilderosion (Ableitung mit einer gewissen Grundlogik) bleiben die Fühler, die die Vorderkante des Vorderflügels berühren, so weit wie möglich erhalten, ohne die Form des Vorderflügels zu beschädigen. Allerdings werden Beine, die andere Körperteile schneiden, automatisch entfernt, um die Form der Hinterflügel beizubehalten. In seltenen Fällen wurden rechteckige Begrenzungsmasken als Platzhaltermasken erstellt, wenn die Probe nicht in einem Stück aus dem Hintergrund herausgeschnitten werden konnte oder wenn bei der Bildung der Probenmasken schwerwiegende Fehler auftraten. Ausführliche Beispiele und Beschreibungen finden Sie in den Zusatzinformationen.
Probenbarcodes wurden als Dateiname für eine Reihe von Probenbildern (dorsale und ventrale Seite) verwendet. In der Bildverarbeitungsphase war ein Datensatz (im CSV-Format) erforderlich, der die Informationen aller Bildnamen und abgebildeten Proben enthält und manuell generiert werden kann (Protokoll finden Sie in den Zusatzinformationen). Andernfalls wurden automatisch temporäre Barcodes (z. B. „Tmp-1“ und „Tmp-2“) zugewiesen, um einen Satz von Probenbildern zu benennen.
Informationen zu Körpergröße, Körperlänge und Brustkorbbreite werden nach der virtuellen Entfernung der vier Flügel gemessen (Abb. 1f). Für eine Antenne wurde eine Reihe von Messungen entwickelt (Abb. 1f): Die Länge eines Pfades, der entlang einer gekrümmten Antennenmaske verfolgt wird, entspricht der Antennenlänge; Die durchschnittliche Breite einer Antenne kann aus der Maskenfläche einer Antenne dividiert durch ihre Länge abgeleitet werden. und die Antennenkrümmung wird als Antennenlänge dividiert durch den direkten linearen Abstand zwischen ihrer Spitze und ihrer Basis berechnet. Die Größe einer Antennenbirne lässt sich auch aus der Breite der Antennenspitze ermitteln. Diese Morphologien wurden auch für eine kaputte Antenne quantifiziert. Daher sollte man bei der Anwendung von Antennenmerkmalen die Daten einer kaputten Antenne sorgfältig manuell oder systematisch herausfiltern. Um dieses Merkmal bei verschiedenen Individuen sinnvoll vergleichen zu können, schlagen wir vor, das Verhältnis zwischen der Größe der Antennenknolle und der gesamten Antennenbreite als aussagekräftige vergleichbare Quantifizierung zu verwenden.
Eine allgemeine Erosion von N Pixeln (die algorithmisch anhand der Größe der Probe skaliert wird; ein Hochfrequenzwert beträgt in unseren abgebildeten Proben 5) wurde zunächst angewendet, um winzige Silhouettenmerkmale zu entfernen, die durch Haare und Anhaftungen (z. B. kristallisierte Chemikalien und große) erzeugt wurden Staubkörner). Der Umriss der Probenmaske wird dann durch elliptische Fourier-Analyse50 in den Frequenzbereich projiziert und die oberen fünf Harmonischen werden verwendet, um die grobe Form eines Hinterflügels zu rekonstruieren. Die von diesen rekonstruierten Flügelregionen ausgehenden Bereiche werden als Schweife definiert (Abb. 4c). Die Morphologie (Länge und Krümmung) dieser unabhängigen Bereiche kann gemäß dem Flügelgittersystem weiter quantifiziert und aufgezeichnet werden (Abb. 4c).
Insgesamt verfügt unsere Pipeline über fünf potenzielle Punkte, an denen Inspektion und manuelle Korrektur möglich sind: (1) den Begrenzungsrahmen; (2) die Probenmaske; (3) die Segmentierung von Vorder- und Hinterflügeln; (4) die Identifizierung primärer Orientierungspunkte; und (5) die Anwendung von Flügelgittern. Das Modul, das Bilder zur Inspektion generiert, ist in die Bildverarbeitungspipeline eingebettet, sodass diese Bilder leicht in den angegebenen Ergebnisverzeichnissen gefunden werden können. Die meisten manuellen Korrekturwerkzeuge für den lokalen Computer wurden in MATLAB geschrieben, mit Ausnahme der Mustermaskenkorrektur, für die kommerzielle Malsoftware (wie Adobe Photoshop) erforderlich ist, und der Vorder- und Hinterflügelsegmentierungsaufgabe (geschrieben in Python). Außerdem wurden entsprechende Skripte vorbereitet, um den Datensatz auf dem Cluster mit den manuell korrigierten Informationen zu aktualisieren.
Viele Visualisierungen werden automatisch innerhalb der Bildverarbeitungspipeline generiert. Einige Arten haben jedoch spezielle Flügelgrößen und -formen, sodass für eine bessere Visualisierung möglicherweise individuellere Einstellungen erforderlich sind. Ein Skript zur individuellen Visualisierung der Flügelform und des Schwanzes wird ebenfalls bereitgestellt (ergänzende Informationen).
Die Datenstrukturen der anfänglichen Beschreibungsdaten sowie der verarbeiteten Daten und der Gruppenzusammenfassungsmatrix werden in den Zusatzinformationen bereitgestellt.
Durch die Verfolgung der Pipeline mit den in den Zusatzinformationen bereitgestellten Rohdaten sind alle Zwischen- und Endprodukte leicht reproduzierbar. Die Abbildungen und Abbildungslegenden geben Auskunft über die Stichprobengrößen, die Anzahl der Exemplare und Arten sowie den angewandten statistischen Ansatz.
Weitere Informationen zum Forschungsdesign finden Sie in der mit diesem Artikel verlinkten Nature Portfolio Reporting Summary.
Die während der aktuellen Studie generierten und/oder analysierten Datensätze sind bei DryAd (https://doi.org/10.5061/dryad.37pvmcvp5)51 verfügbar.
Detaillierte Schritt-für-Schritt-Anleitungen sind auf Protocols.io mit Tutorial-Videos für einige wichtige Schritte dokumentiert. Alle Quellcodes werden auf GitHub bereitgestellt. Weitere Informationen finden Sie in den ergänzenden Informationen.
Mandal, J. et al. Hierarchisch poröse Polymerbeschichtungen für hocheffiziente passive Strahlungskühlung am Tag. Wissenschaft 362, 315–319 (2018).
Artikel CAS PubMed Google Scholar
Mazo-Vargas, A. et al. Makroevolutionäre Veränderungen der WntA-Funktion verstärken die Vielfalt der Schmetterlingsflügelmuster. Proz. Natl Acad. Wissenschaft. USA 114, 10701–10706 (2017).
Artikel CAS PubMed PubMed Central Google Scholar
Osotsi, MI et al. Schmetterlingsflügelarchitekturen inspirieren Sensor- und Energieanwendungen. Natl. Sci. Rev. 8, nwaa107 (2021).
Artikel CAS PubMed Google Scholar
Reed, RD et al. Optix treibt die wiederholte konvergente Entwicklung der Nachahmung von Schmetterlingsflügelmustern voran. Wissenschaft 333, 1137–1141 (2011).
Artikel CAS PubMed Google Scholar
Shi, NN et al. Kühl bleiben: Verbesserte optische Reflexion und Strahlungswärmeableitung bei Silberameisen aus der Sahara. Wissenschaft 349, 298–301 (2015).
Artikel CAS PubMed Google Scholar
Pomerantz, AF et al. Entwicklungsbedingte, zelluläre und biochemische Grundlagen der Transparenz bei Clearwing-Schmetterlingen. J. Exp. Biol. 224, https://doi.org/10.1242/jeb.237917 (2021).
Hegedus, M., DeVries, P. & Penz, CM Der Einfluss der Mimikry auf die Entwicklung der Flügelform beim Schmetterling Papilio dardanus (Lepidoptera: Papilionidae). Ann. Entomologische Soc. Bin. 112, 33–43 (2019).
Artikel Google Scholar
Le Roy, C. et al. Adaptive Flugentwicklung bei Morpho-Schmetterlingen. Wissenschaft 374, 1158–1162 (2021).
Artikel PubMed Google Scholar
Owens, HL, Lewis, DS, Condamine, FL, Kawahara, AY & Guralnick, RP. Die vergleichende Phylogenetik der Flügelform und -größe des Papilio-Schmetterlings zeigt eine unabhängige Entwicklung der Hinter- und Vorderflügel. Syst. Biol. 69, 813–819 (2020).
Artikel CAS PubMed Google Scholar
Zhang, L., Mazo-Vargas, A. & Reed, RD Ein einzelnes Master-Regulationsgen koordiniert die Evolution und Entwicklung der Schmetterlingsfarbe und des Schillerns. Proz. Natl Acad. Wissenschaft. USA 114, 10707–10712 (2017).
Artikel CAS PubMed PubMed Central Google Scholar
Cespedes, A., Penz, CM & DeVries, PJ Kreuzfahrt über den Regenwaldboden: Entwicklung der Schmetterlingsflügelform und Gleiten im Bodeneffekt. J. Anim. Ökologisch. 84, 808–816 (2015).
Artikel PubMed Google Scholar
Imafuku, M., Hirose, Y. & Takeuchi, T. Flügelfarben von Chrysozephyrus-Schmetterlingen (Lepidoptera; Lycaenidae): Ultraviolettreflexion durch Männchen. Zool. Wissenschaft. 19, 175–183 (2002).
Artikel Google Scholar
Stevens, M., Párraga, CA, Cuthill, IC, Partridge, JC & Troscianko, TS Verwendung digitaler Fotografie zur Untersuchung der Tierfärbung. Biol. J. Linn. Soc. 90, 211–237 (2007).
Artikel Google Scholar
Wijnen, B., Leertouwer, HL & Stavenga, DG Farben und Pterinpigmentierung von Pierid-Schmetterlingsflügeln. J. Insect Physiol. 53, 1206–1217 (2007).
Artikel CAS PubMed Google Scholar
Wilts, BD, Pirih, P. & Stavenga, DG Spektrale Reflexionseigenschaften von schillernden Pierid-Schmetterlingsflügeln. J. Comp. Physiol. Ein Neuroethol. Sens. Neurales Verhalten. Physiol. 197, 693–702 (2011).
Artikel PubMed PubMed Central Google Scholar
Borror, DJ, Triplehorn, CA & Johnson, NF Eine Einführung in das Studium von Insekten. (Saunders College Publishing, 1989).
McKenna, KZ, Kudla, AM & Nijhout, HF Anterior-posterior-Musterung in Schmetterlingsflügeln. Vorderseite. Ökologisch. Evolution 8, 146 (2020).
Artikel Google Scholar
McMillan, WO, Monteiro, A. & Kapan, DD Entwicklung und Evolution auf dem Flügel. Trends Ecol. Evolution 17, 125–133 (2002).
Artikel Google Scholar
Lewis, JJ et al. Die parallele Entwicklung alter, pleiotroper Verstärker liegt der Nachahmung von Schmetterlingsflügelmustern zugrunde. Proz. Natl Acad. Wissenschaft. USA 116, 24174–24183 (2019).
Artikel CAS PubMed PubMed Central Google Scholar
Martin, A. et al. Diversifizierung komplexer Schmetterlingsflügelmuster durch wiederholte regulatorische Evolution eines Wnt-Liganden. Proz. Natl Acad. Wissenschaft. USA 109, 12632–12637 (2012).
Artikel CAS PubMed PubMed Central Google Scholar
Nadeau, NJ et al. Der Genkortex steuert Mimikry und Krypsis bei Schmetterlingen. Natur 534, 106–110 (2016).
Artikel CAS PubMed PubMed Central Google Scholar
Patil, S. & Magdum, S. Einblick in die Flügeladerung bei Schmetterlingen der Familien Papilionidae, Nymphalidae und Pieridae aus Dang Dist Gujarat, Indien. J. Entomol. Zool. Zucht. 5, 1596–1607 (2017).
Google Scholar
Novelo, EG, Luis, MM & Cordero, C. Falsche Kopfkomplexität und Hinweise auf Raubtierangriffe bei männlichen und weiblichen Haarstreifenschmetterlingen (Lepidoptera: Theclinae: Eumaeini) aus Mexiko. PeerJ 7, e7143–e7143 (2019).
Artikel Google Scholar
Robbins, RK Die Hypothese des „falschen Kopfes“: Raubtiere und Flügelmustervariation von Lycaenid-Schmetterlingen. Bin. Naturalist 118, 770–775 (1981).
Artikel Google Scholar
Betts, C. & Wootton, R. Flügelform und Flugverhalten bei Schmetterlingen (Lepidoptera: Papilionoidea und Hesperioidea): eine vorläufige Analyse. J. Exp. Biol. 138, 271–288 (1988).
Artikel Google Scholar
Le Roy, C., Debat, V. & Llaurens, V. Adaptive Evolution der Schmetterlingsflügelform: von der Morphologie zum Verhalten. Biol. Rev. 94, 1261–1281 (2019).
PubMed Google Scholar
Maia, R., Gruson, H., Endler, JA & White, TE Teil 2: Neue Werkzeuge für die spektrale und räumliche Analyse von Farben in R. Methoden Ecol. Entwicklung 10, 1097–1107 (2019).
Artikel Google Scholar
Van Belleghem, SM et al. Patternize: Ein R-Paket zur Quantifizierung von Farbmustervariationen. Methoden Ecol. Entwicklung 9, 390–398 (2018).
Artikel PubMed Google Scholar
van den Berg, CP, Troscianko, J., Endler, JA, Marshall, NJ & Cheney, KL Quantitative Farbmusteranalyse (QCPA): ein umfassender Rahmen für die Analyse von Farbmustern in der Natur. Methoden Ecol. Evolution 11, 316–332 (2020).
Artikel Google Scholar
Troscianko, J. & Stevens, M. Toolbox zur Bildkalibrierung und -analyse – eine kostenlose Software-Suite zur objektiven Messung von Reflexion, Farbe und Muster. Methoden Ecol. Entwicklung 6, 1320–1331 (2015).
Artikel PubMed PubMed Central Google Scholar
Sarg, D. dcraw v9.28, https://www.dechifro.org/dcraw/ (2018).
Wu, S. et al. Künstliche Intelligenz deckt umweltbedingte Einschränkungen der Farbvielfalt bei Insekten auf. Nat. Komm. 10, 4554 (2019).
Artikel PubMed PubMed Central Google Scholar
Pirih, P., Wilts, BD & Stavenga, DG Räumliche Reflexionsmuster schillernder Flügel männlicher Pierid-Schmetterlinge: Gekrümmte Schuppen reflektieren in einem größeren Winkel als flache Schuppen. J. Comp. Physiol. Ein Neuroethol. Sens. Neurales Verhalten. Physiol. 197, 987–997 (2011).
Artikel PubMed PubMed Central Google Scholar
Breuker, CJ, Gibbs, M., Van Dongen, S., Merckx, T. & Van Dyck, H. in Morphometrie für Nichtmorphometrie 271–287 (Springer, 2010).
Bybee, SM et al. UV-Photorezeptoren und UV-gelbe Flügelpigmente in Heliconius-Schmetterlingen ermöglichen, dass ein Farbsignal sowohl der Mimikry als auch der intraspezifischen Kommunikation dient. Bin. Naturalist 179, 38–51 (2012).
Artikel Google Scholar
Blagoderov, V., Kitching, IJ, Livermore, L., Simonsen, TJ & Smith, VS Kein Exemplar zurückgelassen: Digitalisierung naturhistorischer Sammlungen im industriellen Maßstab. ZooKeys, 133 (2012).
Flemons, P. & Berents, P. Bildbasierte Digitalisierung entomologischer Sammlungen: Nutzung von Freiwilligen zur Steigerung der Digitalisierungskapazität. Zookeys, 203–217, (2012).
Faulwetter, S., Vasileiadou, A., Kouratoras, M., Dailianis, T. & Arvanitidis, C. Mikrocomputertomographie: Einführung neuer Dimensionen in die Taxonomie. ZooKeys, 1 (2013).
Metallo, A. & Rossi, V. Die Zukunft der dreidimensionalen Bildgebung und Museumsanwendungen. Kurator: Mus. J. 54, 63–69 (2011).
Artikel Google Scholar
Medina, JJ et al. Eine schnelle und kostengünstige Pipeline zur Digitalisierung von Museumsexemplaren mit 3D-Photogrammetrie. PLoS ONE 15, e0236417 (2020).
Artikel CAS PubMed PubMed Central Google Scholar
Lürig, MD, Donoughe, S., Svensson, EI, Porto, A. & Tsuboi, M. Computer Vision, maschinelles Lernen und das Versprechen der Phänomenologie in der Ökologie und Evolutionsbiologie. Vorderseite. Ökologisch. Evolution 9, 148 (2021).
Artikel Google Scholar
Bitter, R., Mohiuddin, T. & Nawrocki, M. LabVIEW™ Advanced Programming Techniques. (CRC-Presse, 2017).
Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. SURF-beschleunigte robuste Funktionen für Computer Vision und Bildverständnis (CVIU). (2008).
Lowe, DG in Proceedings der siebten internationalen IEEE-Konferenz zum Thema Computer Vision. 1150–1157 (Ieee).
Gunturk, BK, Altunbasak, Y. & Mersereau, RM Interpolation der Farbebene unter Verwendung alternierender Projektionen. IEEE Trans. Bildprozess. 11, 997–1013 (2002).
Artikel PubMed Google Scholar
Arthur, D. & Vassilvitskii, S. k-means++: The Advantages of Careful Seeding, SODA'07 Tagungsband des achtzehnten jährlichen ACM-SIAM-Symposiums zu diskreten Algorithmen, New Orleans, Louisiana, 2007. https://theory.stanford. edu/~sergei/papers/kMeansPP-soda.pdf, 1027–1035.
Deng, G. & Cahill, L. im Jahr 1993, IEEE-Konferenz, Rekord-Nuklearwissenschaftssymposium und medizinische Bildgebungskonferenz. 1615–1619 (IEEE).
Caselles, V., Kimmel, R. & Sapiro, G. Geodätische aktive Konturen. Int. J. Computervis. 22, 61–79 (1997).
Artikel Google Scholar
Chan, TF & Vese, LA Aktive Konturen ohne Kanten. IEEE Trans. Bildprozess. 10, 266–277 (2001).
Artikel CAS PubMed Google Scholar
Crampton, JS Elliptische Fourier-Formanalyse fossiler Muscheln: einige praktische Überlegungen. Lethaia 28, 179–186 (1995).
Artikel Google Scholar
Chan, W.-P. et al., Ein multispektrales Bildgebungssystem mit hohem Durchsatz für Museumsproben, Dryad, Datensatz. https://doi.org/10.5061/dryad.37pvmcvp5 (2022).
Referenzen herunterladen
Wir danken Chen-Ming Yang für die Weitergabe des Quellcodes und die Beratung bei der Entwicklung des Tools für die manuelle Segmentierung des Vorder- und Hinterflügels. Zoe Flores für das Testen aller Pipelines und Skripte; Josh Sanes für seinen Rat und seine Ermutigung durch das Center for Brain Science in Harvard; und David Lohman für Rat und Unterstützung bei der Identifizierung geeigneter Mitarbeiter für die Dateneingabe sowie bei der Festlegung einer geeigneten Nomenklatur. Wir danken Joel Greenwood für seine Hilfe bei der frühen Entwicklung des Bildgebungssystems. Wir danken Sarah Maunsell, Jalen Winstanley, Amy Wu, Even Dankowicz, Clayton Ziemke, Christian Alessandro Perez, Ling Fang, Avalon Owens, Zhengyang Wang, Cong Liu, Katherine Angier, Evan Hoki, Francisco Matos, Beaziel Ombajen, Zoe Flores, Jocelyn Wang , Han-Ting Yang, Jingqian Wang, Jiale Chen, Annina Kennedy-Yoon, Atreyi Mukherji für das Testen und die Unterstützung bei der Optimierung verschiedener Protokolle und Tools für Inspektion und manuelle Korrektur. W-PC wurde durch ein Graduiertenstipendium der Abteilung für Organismische und Evolutionsbiologie der Harvard University unterstützt; SA wurde durch ein Herchel-Smith-Stipendium der Harvard University unterstützt; RARC wurde durch ein Graduate Research Fellowship (GRFP) der National Science Foundation (NSF) unterstützt, C-CT wurde durch ein Graduate Research Fellowship des Department of Applied Physics and Mathematics der Columbia University unterstützt. Diese Forschung wurde vom Air Force Office of Scientific Research FA9550-14-1-0389 (Multidisciplinary University Research Initiative) und FA9550-16-1-0322 (Defense University Research Instrumentation Program) in New York sowie von NSF PHY-1411445 in New York unterstützt NY und NSF PHY-1411123 an NEP und NSF DEB-0447242 an NEP. Veröffentlicht mit einem Open-Access-Stipendium des Wetmore Colles Fund des Museum of Comparative Zoology.
Diese Autoren haben gleichermaßen beigetragen: Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe.
Abteilung für Organismische und Evolutionsbiologie, Harvard University, Cambridge, MA, USA
Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe, Caroline Elson und Naomi E. Pierce
Museum für Vergleichende Zoologie, Harvard University, Cambridge, MA, USA
Wei-Ping Chan, Richard Rabideau Childers, Rachel L. Hawkins Sipe, Crystal A. Maier und Naomi E. Pierce
Abteilung für Angewandte Physik und Angewandte Mathematik, Columbia University, New York, NY, USA
Cheng-Chia Tsai & Nanfang Yu
Abteilung für Forstwirtschaft und Umweltressourcen, North Carolina State University, Raleigh, NC, USA
Kirsten J. Keleher
Abteilung für Neurobiologie und Verhalten, Cornell University, Ithaca, NY, USA
Kirsten J. Keleher
McGuire Center for Lepidoptera and Biodiversity, Florida Museum of Natural History, University of Florida, Gainesville, FL, USA
Andrei Sourakow
Büro für Computersysteme und Abteilung für Entomologie, Peabody Museum of Natural History, Yale University, New Haven, CT, USA
Lawrence F. Gall
Fakultät für Elektrotechnik und Informationstechnik, University of Washington, Seattle, WA, USA
Gary D. Bernard
Zentrum für Hirnforschung, Harvard University, Cambridge, MA, USA
Edward R. Soucy
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Konzeptualisierung: RRC, C.-CT, GDB, ERS, NY, NEP, Datenerfassung: W.-PC, SA, CE, KJK, RRC, ERS, Datenkuration: RLHS, CAM, AS, LFG, Hardware-Entwicklung: RRC , ERS, Softwareentwicklung: W.-PC, Formale Analyse: W.-PC, Visualisierung: W.-PC, Validierung: W.-PC, SA, Schreiben – Originalentwurf: W.-PC, RRC, SA, NEP , Schreiben – Rezension und Bearbeitung: Alle Autoren
Korrespondenz mit Wei-Ping Chan oder Naomi E. Pierce.
Die Autoren geben an, dass keine Interessenkonflikte bestehen.
Communications Biology dankt Bodo Wilts und den anderen, anonymen Gutachtern für ihren Beitrag zum Peer-Review dieser Arbeit. Hauptredakteure: Veronique van den Berghe und Luke R. Grinham. Peer-Reviewer-Berichte sind verfügbar.
Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.
Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.
Nachdrucke und Genehmigungen
Chan, WP., Rabideau Childers, R., Ashe, S. et al. Ein multispektrales Bildgebungssystem mit hohem Durchsatz für Museumsproben. Commun Biol 5, 1318 (2022). https://doi.org/10.1038/s42003-022-04282-z
Zitat herunterladen
Eingegangen: 04. August 2022
Angenommen: 18. November 2022
Veröffentlicht: 01. Dezember 2022
DOI: https://doi.org/10.1038/s42003-022-04282-z
Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:
Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.
Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt
Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.