2022-08-23

Två tips: Yandex och Google Lens

Jag minns mycket väl när man kunde googla efter bilder. Det var sommaren 2001 och det var den första internettjänsten som kändes som magi. Dessutom sparade den oerhört mycket tid. (Pröva att leta bilder med en icke-bildsökartjänst …)

Även ett litet urklipp räcker för att TinEye ska identifiera Rubens evangelister

Sedan kom omvänd bildsökning 2008: Kanadensiska TinEye. Ge sökmotorn en bild, så letar den reda på sidor där bilden finns. De kan även söka och hitta bilder i svartvitt, beskuret, eller rätt kraftigt redigerade versioner över huvud taget. Den sajten hamnade omedelbart bland favoriterna och har från början varit ett självklart verktyg.

Det senaste i bildsökarväg är sajter som inte bara hittar samma bild utan även liknande bilder. Den hittills bästa hamnade omedelbart bland favoriterna och har från början varit ett självklart verktyg.

Här är den första bilden jag prövade på liknande-bild-sökmotorn Yandex:

Den gav följande resultat: Först samma fotografi i en annan bild som onekligen var bästa träff (där ser ni också vad den visar), därefter … Ja, ni ser själva:

Svartvita bilder med bilar på grusvägar, ofta men inte nödvändigtvis i diket och/eller mer eller mindre ramponerade. Men de behöver inte ens ha ytliga likheter med sökbilden. Det kan väl inte vara annat än magi?

Som jämförelse är här ett helt annat exempel: En officiell bild från hovet med drottningen i galatoalett.

Resultatet:

En mängd andra bilder på Silvia, även i andra utstyrslar. Om det var en okändis man ville identifiera skulle man ha mer än tillräckligt med material här. Och så en rad andra kvinnliga kungligheter dessutom. Hade lite hippare klädsel gett fler pöbel-kändisar? Eller gav Silvia-träffarna ett sorts majestätiskt utslag som fick sökmotorn att prioritera sådant material?

Nu var jag tvungen att prova lite. Plockade fram kronprinsessan med, åtminstone för henne, ovanlig make up, dessutom i en rätt liten bild:

Vad skulle Yandex kunna göra med den?

Av de första fem bilderna är fyra Victoria med samma maskering, och två av dem tagna i en annan vinkel. De övriga verkar inte ha särskilt många särskilt kungliga medverkande. Så Silvia-slagningens många monarker kan ha berott mer på klädseln än något annat. Fast vem vet hur algoritmerna fungerar …

Nog sagt – gå och pröva Yandex!

Örnögda betraktare, just sådana som följer denna blogg förresten, noterar kyrilliska inslag. Yandex är ryskt, tyvärr, och görstort i det landet, även på områden som vi förknippar med ett antal andra namn. Det sagt så är deras bildsökningar tokbra. Och de har inte blivit spärrade, än. Utom i Ukraina som slängde ut dem 2017.

Men det finns alternativ hitom den nya järnridån. Som dessutom kan vara bättre ibland – att göra samma sökning med olika sökmotorer är ett standardgrepp om man är lite mer än vanligt nyfiken på något.

Google Lens kan användas på datorn men kommer bäst till sin rätt på mobilen. Där är den kopplad till kameran så man kan ta en bild, eller så bara rikta kameran mot något, och göra en rad olika saker med bilden.

Första gången jag använde Google Lens var på en promenad. Jag såg en växt med ett distinkt utseende och blev nyfiken. Varför inte pröva den nya appen?

Jag riktade kameran mot föremålet, tryckte på sökknappen (jfr bloggpostens inledande skärmdump, "Sök med kameran"), och några sekunder senare fick jag en skrälldus bilder på samma växt i olika vinklar och ljussituationer, samt länkar där jag kunde läsa mer om den berömda idegranen. Jag kände till dess militära betydelse från bågskyttets tid; nu visste jag hur den såg ut.

Google Lens har en rad andra funktioner. Den riktiga killern är översättningen. Rikta kameran mot en skylt, skärm, tidningssida eller vad som, och Google Lens tolkar skrivtecknen, identifierar språket, översätter texten, och lägger in översättningen ovanpå utrikiskan. Det hela går på ett ögonblick eller ett par och förändrar umgänget med andra språk nästan lika mycket som när maskinöversättning började bli användbar.

Första testet var en sida i Kahns The Codebreakers (1968). (Ännu efter över ett halvt sekel är den fortfarande ett standardverk om chiffrering och dechiffrering för tiden fram till 1960-talet, och den har ju inget om ULTRA, Enigma och Turing som fortfarande var hemligstämplat på den tiden.) Rikta kameran, man behöver inte bekymra sig nämnvärt för vinklar eller ljus eller andra imperfektioner; översättningen gör sin grej, snabbt och tillräckligt bra.

Indistinguishable from magic.

OK, en till: sakebiba.jp är japanska skattemyndighetens kampanj för att få ungdomar att dricka mer (sic). Här plåtade jag från dataskärmen. Som synes anpassar Lensen den översatta textens storlek, vinkling, riktning etc efter originalet. Nu kan man knalla omkring på alla möjliga konstiga ställen och få åtminstone habila översättningar av skyltar och varningar, se skillnad på krogar och juristkontor etc. Tänk att det där internettet skulle komma till nytta.


2 kommentarer:

  1. Intressant, tack.

    Dessa sabbar för oss som fånar oss med quizzar. Du måste lägga in en rejält modifierad bild om du vill att frågan skall leva en stund.
    https://forum.skalman.nu/viewtopic.php?f=26&t=10656&hilit=visst&start=31830#p824735

    MVH

    Hans

    SvaraRadera
  2. Att bildsöka går ju inte att förhindra men jag vet inte om aldrig så tillgrötade bilder är optimalt. Jag använder inte sällan bilder från filmer, kanske det borde vara mer sånt? Att som här https://faktoider.blogspot.com/2009/09/lordagsfraga-filmljud.html ha en ljudfråga – ljudklipp från respektive film istället för bilder – är en metod där sökmotorerna, såvitt jag vet, ännu inte har mycket hjälp att ge, och som jag skulle kunna köra med någon gång ibland.

    Men identifiering av bilderna ska bara vara första steget i lördagsfrågeknäckandet. Sedan återstår att avgöra vilka aspekter som är relevanta i sammanhanget och där har man ännu inte stor hjälp av aldrig så fiffiga dataprogram.

    SvaraRadera

Obs! Endast bloggmedlemmar kan kommentera.