Aquest cap de setmana he estat fent proves amb unes aplicacions per smartphone (android) de reconeixement de plantes. Vaig començar amb l'aplicació Pl@ntnet, realitzada per l'Inria (Institut national de recherche en informatique et en automatique): els resultats van estar a l'alçada dels comentaris que vaig trobar a Google Play, decebedors.
Com pots veure al vídeo de presentació d'aquest article, el nombre d'espècies i el de les imatges utilitzades per Pl@ntnet no evolucionen sinó és per les contribucions dels usuaris finals del projecte. El caràcter franco-francès, estatal i, al principi, exclusivament orientat als usuaris de iPhones, segurament expliquin que la base de dades no contingui, a dia d'avui, més de 4.100 espècies inventariades, fonamentalment de la flora silvestre del territori francès (les plantes ornamentals no estan incloses!). Després de fer un parell de tests decebedors, he desinstal·lat l'aplicació del meu smartphone.
A continuació, he fet un test ràpid amb Google Googles que ha tingut el resultat que m'esperava. Si algú ha penjat una imatge de la planta que has escanejat amb el teu smartphone et dirà a quina adreça pots trobar-la. I solament si el que ha penjat la imatge l'ha documentat podràs saber de quina planta es tracta.
Segurament, la més fiable de les aplicacions sigui una que han desenvolupat un equip de botànics txecs: FlowerChecker. En realitat funciona com un servei d'experts al que envies la imatge d'una planta (fins i tot molsa, líquens o bolets) i obtens una resposta entre dues hores i dos dies (segons la seva complexitat ... o la disponibilitat dels 'experts') contra pagament de 1 USD. He carregat l'aplicació per veure com funciona, he fet un test sense enviar la imatge i l'he desinstal·lat del meu smartphone.
L'aplicació que he trobat més interessant està desenvolupada per la penya de JustVisual -realment bons en el reconeixement d'imatges i la recerca d'imatges similars a la xarxa- i es diu: LikeThat Garden -Flower Search. Malgrat el nom de l'aplicació pots buscar una planta fotografiant les seves fulles. M'han impressionat tant la rapidesa de la recerca com el seu resultat. Pel que fa a aquest darrer, afegir que pots accedir a la descripció de la planta al wikipedia en anglès (recorda que la filosofia de wikipedia et permet ser col·laborador i responsable dels seus continguts) i també et permet compartir la teva imatge amb d'altres aplicacions (i, perquè no? fer cessió dels drets d'ús a wikimedia).
Conclusions
Donat que la penya que ha desenvolupat LikeThat Garden no està especialitzada en ciències ambientals, al comentari de la meva avaluació a Google Play els he suggerit d'incloure a l'EXIF de la imatge (emmagatzemada al teu smartphone en una carpeta anomenada 'Decor') les coordenades GPS del lloc on es va prendre. També que es pugui puntuar quin d'entre els resultats obtinguts s'adapta millor a la realitat, a fi de millorar la intel·ligència de les properes recerques.
La solució ideal seria que la penya de l'Inria obris el codi i el contingut de la seva base de dades i que la penya de JustVisual pogués fer el mateix amb el codi del seu algoritme de recerca amb les millores demanades i que una nova aplicació Open Source pogués integrar-los ... En attendant ...
Com pots veure al vídeo de presentació d'aquest article, el nombre d'espècies i el de les imatges utilitzades per Pl@ntnet no evolucionen sinó és per les contribucions dels usuaris finals del projecte. El caràcter franco-francès, estatal i, al principi, exclusivament orientat als usuaris de iPhones, segurament expliquin que la base de dades no contingui, a dia d'avui, més de 4.100 espècies inventariades, fonamentalment de la flora silvestre del territori francès (les plantes ornamentals no estan incloses!). Després de fer un parell de tests decebedors, he desinstal·lat l'aplicació del meu smartphone.
A continuació, he fet un test ràpid amb Google Googles que ha tingut el resultat que m'esperava. Si algú ha penjat una imatge de la planta que has escanejat amb el teu smartphone et dirà a quina adreça pots trobar-la. I solament si el que ha penjat la imatge l'ha documentat podràs saber de quina planta es tracta.
Segurament, la més fiable de les aplicacions sigui una que han desenvolupat un equip de botànics txecs: FlowerChecker. En realitat funciona com un servei d'experts al que envies la imatge d'una planta (fins i tot molsa, líquens o bolets) i obtens una resposta entre dues hores i dos dies (segons la seva complexitat ... o la disponibilitat dels 'experts') contra pagament de 1 USD. He carregat l'aplicació per veure com funciona, he fet un test sense enviar la imatge i l'he desinstal·lat del meu smartphone.
L'aplicació que he trobat més interessant està desenvolupada per la penya de JustVisual -realment bons en el reconeixement d'imatges i la recerca d'imatges similars a la xarxa- i es diu: LikeThat Garden -Flower Search. Malgrat el nom de l'aplicació pots buscar una planta fotografiant les seves fulles. M'han impressionat tant la rapidesa de la recerca com el seu resultat. Pel que fa a aquest darrer, afegir que pots accedir a la descripció de la planta al wikipedia en anglès (recorda que la filosofia de wikipedia et permet ser col·laborador i responsable dels seus continguts) i també et permet compartir la teva imatge amb d'altres aplicacions (i, perquè no? fer cessió dels drets d'ús a wikimedia).
Conclusions
Donat que la penya que ha desenvolupat LikeThat Garden no està especialitzada en ciències ambientals, al comentari de la meva avaluació a Google Play els he suggerit d'incloure a l'EXIF de la imatge (emmagatzemada al teu smartphone en una carpeta anomenada 'Decor') les coordenades GPS del lloc on es va prendre. També que es pugui puntuar quin d'entre els resultats obtinguts s'adapta millor a la realitat, a fi de millorar la intel·ligència de les properes recerques.
La solució ideal seria que la penya de l'Inria obris el codi i el contingut de la seva base de dades i que la penya de JustVisual pogués fer el mateix amb el codi del seu algoritme de recerca amb les millores demanades i que una nova aplicació Open Source pogués integrar-los ... En attendant ...
No comments:
Post a Comment