Yahoo open source svou neuronovou síť detekující NSFW
Model hluboké neuronové sítě Yahoo Caffe (kód Github) bude primárně sledovat pouze pornografické obrázky.

Yahoo otevřelo své NSFW (nevhodné/bezpečné pro práci) pro detekci neuronové sítě, což umožňuje vývojářům pracovat na vylepšení algoritmu. Jay Mahadeokar a Gerry Pesavento z Yahoo v příspěvku na blogu vysvětlili, že definování materiálu NSFW na internetu je subjektivní a identifikace takových obrázků není triviální. Vzhledem k tomu, že na internetu dnes dominují obrázky a obsah vytvářený uživateli, filtrování obrázků NSFW se stává nezbytnou součástí webových a mobilních aplikací, uvedli.
Zatímco algoritmy do značné míry automaticky klasifikují obsah NSFW; Model hluboké neuronové sítě Yahoo Caffe (kód Github) bude primárně sledovat pouze pornografické obrázky. Jay a Gerry říkají, že identifikace náčrtů NSFW, karikatur, textu, obrázků grafického násilí nebo jiných typů nevhodného obsahu není tímto modelem řešena.
Model Yahoo umožní vývojářům experimentovat s klasifikátorem pro detekci NSFW a mohou poskytnout zpětnou vazbu pro zlepšení celého systému. Model poskytuje skóre pro obrázky v rozmezí 0-1 hodnocení, které lze použít pro obsah NSFW. Vývojáři mohou toto skóre použít k filtrování obrázků pod určitou vhodnou prahovou hodnotou na základě ROC křivky pro konkrétní případy použití nebo tento signál použít k hodnocení obrázků ve výsledcích vyhledávání, vysvětluje blogpost.
Číst: Americká vláda předala zbývající kontrolu nad internetem organizaci ICANN
Yahoo nezveřejní žádné obrázky školení ani jiné podrobnosti, přičemž bude mít na paměti povahu dat. Má však otevřený zdrojový výstupní model, který mohou vývojáři použít ke klasifikaci obsahu NSFW.