Ta kontakt med oss


Q3 Resultat: Roku intäktsgenererade videoannonsvisningar mer än fördubblades igen från år till år


Roku today released the third quarter 2019 results. In the letter to shareholders, Roku said that the “monetized video ad impressions again more than doubled YoY.”

According to Roku, The Roku Channel contributed to this growth as impressions within the channel are growing faster than the impressions within the overall platform. Anthony Wood, Founder and CEO, and Steve Louden, CFO, wrote that Roku is diversifying advertises by working not only with the Ad Age 200, but also with small- and medium- sized businesses as well as local, direct-to-consumer, mid-market, performance, programmatic and direct-response advertisers.

Roku’s CEO and CFO expect to reinforce the leadership of the ad selling on Connected TV with the close of the acquisition of dataxu. With the DSP, Roku expects to unlock more reklam- investment into OTT, and to acquire expertise in DSP software engineering, data science and analytics.

Streaming TV viewers can surpass traditional pay TV viewers in five years, a Roku study predicts.

PPC Land


4 vanliga misstag e-handelswebbplatser gör med JavaScript


4 Common Mistakes E-commerce Websites Make Using JavaScript

Författarens åsikter är helt hans eller hennes egna (exklusive den osannolika händelsen av hypnos) och återspeglar kanske inte alltid Moz åsikter.

Despite the resources they can invest in web development, large e-commerce websites still struggle with SEO-friendly ways of using JavaScript.

And, even when 98% of all websites use JavaScript, it’s still common that Google has problems indexing pages using JavaScript. While it’s okay to use it on your website in general, remember that JavaScript requires extra computing resources to be processed into HTML code understandable by bots.

At the same time, new JavaScript frameworks and technologies are constantly arising. To give your JavaScript pages the best chance of indexing, you’ll need to learn how to optimize it for the sake of your website’s visibility in the SERPs.

Why is unoptimized JavaScript dangerous for your e-commerce?

By leaving JavaScript unoptimized, you risk your content not getting crawled and indexed by Google. And in the e-commerce industry, that translates to losing significant revenue, because products are impossible to find via search engines.

It’s likely that your e-commerce website uses dynamic elements that are pleasant for users, such as product carousels or tabbed product descriptions. This JavaScript-generated content very often is not accessible to bots. Googlebot cannot click or scroll, so it may not access all those dynamic elements.

Consider how many of your e-commerce website users visit the site via mobile devices. JavaScript is slower to load so, the longer it takes to load, the worse your website’s performance and user experience becomes. If Google realizes that it takes too long to load JavaScript resources, it may skip them when rendering your website in the future.

Top 4 JavaScript SEO mistakes on e-commerce websites

Now, let’s look at some top mistakes when using JavaScript for e-commerce, and examples of websites that avoid them.

1. Page navigation relying on JavaScript

Crawlers don’t act the same way users do on a website ‒ they can’t scroll or click to see your products. Bots must follow länkar throughout your website structure to understand and access all your important pages fully. Otherwise, using only JavaScript-based navigation may make bots see products just on the first page of pagination.

Guilty: Nike.com

Nike.com uses infinite scrolling to load more products on its category pages. And because of that, Nike risks its loaded content not getting indexed.

For the sake of testing, I entered one of their category pages and scrolled down to choose a product triggered by scrolling. Then, I used the “site:” command to check if the URL is indexed in Google. And as you can see on a screenshot below, this URL is impossible to find on Google:

Of course, Google can still reach your products through sitemaps. However, finding your content in any other way than through länkar makes it harder for Googlebot to understand your site structure and dependencies between the pages.

To make it even more apparent to you, think about all the products that are visible only when you scroll for them on Nike.com. If there’s no link for bots to follow, they will see only 24 products on a given category page. Of course, for the sake of users, Nike can’t serve all of its products on one viewport. But still, there are better ways of optimizing infinite scrolling to be both comfortable for users and accessible for bots.

Winner: Douglas.de

Unlike Nike, Douglas.de uses a more SEO-friendly way of serving its content on category pages.

De ger bots med sidnavigering baserad på <a href="https://articles.entireweb.com/sv/1/"> länkar to enable crawling and indexing of the next paginated pages. As you can see in the source code below, there’s a link to the second page of pagination included:

Moreover, the paginated navigation may be even more user-friendly than infinite scrolling. The numbered list of category pages may be easier to follow and navigate, especially on large e-commerce websites. Just think how long the viewport would be on Douglas.de if they used infinite scrolling on the page below:

2. Generating links to product carousels with JavaScript

Product carousels with related items are one of the essential e-commerce website features, and they are equally important from both the user and business perspectives. Using them can help businesses increase their revenue as they serve related products that users may be potentially interested in. But if those sections over-rely on JavaScript, they may lead to crawling and indexing issues.

Guilty: Otto.de

I analyzed one of Otto.de’s product pages to identify if it includes JavaScript-generated elements. I used the What Would JavaScript Do (WWJD) tool that shows screenshots of what a page looks like with JavaScript enabled and disabled.

Test results clearly show that Otto.de relies on JavaScript to serve related and recommended product carousels on its website. And from the screenshot below, it’s clear that those sections are invisible with JavaScript disabled:

How may it affect the website’s indexing? When Googlebot lacks resources to render JavaScript-injected länkar, the product carousels can’t be found and then indexed.

Let’s check if that’s the case here. Again, I used the “site:” command and typed the title of one of Otto.de’s product carousels:

As you can see, Google couldn’t find that product carousel in its index. And the fact that Google can’t see that element means that accessing additional products will be more complex. Also, if you prevent crawlers from reaching your product carousels, you’ll make it more difficult for them to understand the relationship between your pages.

Winner: Target.com

In the case of Target.com’s product page, I used the Quick JavaScript Switcher extension to disable all JavaScript-generated elements. I paid particular attention to the “More to consider” and “Similar items” carousels and how they look with JavaScript enabled and disabled.

As shown below, disabling JavaScript changed the way the product carousels look for users. But has anything changed from the bots’ perspective?

To find out, check what the HTML version of the page looks like for bots by analyzing the cache version.

To check the cache version of Target.com’s page above, I typed “cache:https://www.target.com/p/9-39-…”, which is the URL address of the analyzed page. Also, I took a look at the text-only version of the page.

When scrolling, you’ll see that the länkar to related products can also be found in its cache. If you see them here, it means bots don’t struggle to find them, either.

However, keep in mind that the länkar to the exact products you can see in the cache may differ from the ones on the live version of the page. It’s normal for the products in the carousels to rotate, so you don’t need to worry about discrepancies in specific länkar.

But what exactly does Target.com do differently? They take advantage of dynamic rendering. They serve the initial HTML, and the länkar to products in the carousels as the static HTML bots can process.

However, you must remember that dynamic rendering adds an extra layer of complexity that may quickly get out of hand with a large website. I recently wrote an article about dynamic rendering that’s a must-read if you are considering this solution.

Also, the fact that crawlers can access the product carousels doesn’t guarantee these products will get indexed. However, it will significantly help them flow through the site structure and understand the dependencies between your pages.

3. Blocking important JavaScript files in robots.txt

Blocking JavaScript for crawlers in robots.txt by mistake may lead to severe indexing issues. If Google can’t access and process your important resources, how is it supposed to index your content?

Guilty: Jdl-brakes.com

It’s impossible to fully evaluate a website without a proper site crawl. But looking at its robots.txt file can already allow you to identify any critical content that’s blocked.

This is the case with the robots.txt file of Jdl-brakes.com. As you can see below, they block the /js/ path with the Disallow directive. It makes all internally hosted JavaScript files (or at least the important ones) invisible to all search engine bots.

This disallow directive misuse may result in rendering problems on your entire website.

To check if it applies in this case, I used Google’s Mobile-Friendly Test. This tool can help you navigate rendering issues by giving you insight into the rendered source code and the screenshot of a rendered page on mobile.

I headed to the “More info” section to check if any page resources couldn’t be loaded. Using the example of one of the product pages on Jdl-brakes.com, you may see it needs a specific JavaScript file to get fully rendered. Unfortunately, it can’t happen because the whole /js/ folder is blocked in its robots.txt.

But let’s find out if those rendering problems affected the website’s indexing. I used the “site:” command to check if the main content (product description) of the analyzed page is indexed on Google. As you can see, inga resultat hittades:

Detta är ett intressant fall där Google kunde nå webbplatsens huvudinnehåll men inte indexerade det. Varför? Eftersom Jdl-brakes.com blockerar dess JavaScript kan Google inte se layouten på sidan korrekt. Och även om sökrobotar kan komma åt huvudinnehållet är det omöjligt för dem att förstå var innehållet hör hemma i sidans layout.

Låt oss ta en titt på Fliken Skärmdump i Mobile-Friendly Test. Så här ser sökrobotar sidans layout när Jdl-brakes.com blockerar deras åtkomst till CSS- och JavaScript-resurser. Det ser ganska annorlunda ut än vad du kan se i din webbläsare, eller hur?

Layouten är avgörande för att Google ska förstå sammanhanget på din sida. Om du vill veta mer om detta vägskäl mellan webbteknologi och layout, rekommenderar jag starkt att titta in i ett nytt tekniskt område SEO kallad rendering SEO.

Vinnare: Lidl.de

Lidl.de bevisar att en välorganiserad robots.txt fil kan hjälpa dig att kontrollera din webbplatss genomsökning. Det avgörande är att använda förbudsdirektivet medvetet.

Även om Lidl.de blockerar en enda JavaScript-fil med Disallow-direktivet /cc.js*, verkar det inte påverka webbplatsens renderingsprocess. Det viktiga att notera här är att de bara blockerar en enda JavaScript-fil som inte påverkar andra webbadresssökvägar på en webbplats. Som ett resultat bör alla andra JavaScript- och CSS-resurser som de använder förbli tillgängliga för sökrobotar.

Om du har en stor e-handelswebbplats kan du lätt förlora koll på alla tillagda direktiv. Inkludera alltid så många sökvägsfragment av en webbadress som du vill blockera från att genomsöka som möjligt. Det hjälper dig att undvika att blockera några viktiga sidor av misstag.

4. JavaScript tar bort huvudinnehållet från en webbplats

Om du använder ooptimerad JavaScript för att visa huvudinnehållet på din webbplats, till exempel produktbeskrivningar, blockerar du sökrobotar från att se den viktigaste informationen på dina sidor. Som ett resultat, dina potentiella kunder som letar efter specifik information om dina produkter kanske inte hittar sådant innehåll på Google.

Skyldig: Walmart.com

Använda Quick JavaScript Switcher förlängning kan du enkelt inaktivera alla JavaScript-genererade element på en sida. Det är vad jag gjorde i fallet med en av Walmart.coms produktsidor:

Som du kan se ovan försvann produktbeskrivningssektionen med JavaScript inaktiverat. Jag bestämde mig för att använda kommandot "site:" för att kontrollera om Google kunde indexera detta innehåll. Jag kopierade fragmentet av produktbeskrivningen som jag såg på sidan med JavaScript aktiverat. Google visade dock inte exakt den produktsida jag letade efter.

Kommer användare att bli besatta av att hitta just den produkten via Walmart.com? De kan, men de kan också gå till någon annan butik som säljer denna artikel istället.

Exemplet med Walmart.com bevisar att huvudinnehåll beroende på JavaScript för att ladda gör det svårare för sökrobotar att hitta och visa din värdefulla information. Det betyder dock inte nödvändigtvis att de ska eliminera alla JavaScript-genererade element på deras webbplats.

För att lösa det här problemet har Walmart två lösningar:

  1. Implementera dynamisk rendering (prerendering) vilket i de flesta fall är det enklaste ur implementeringssynpunkt.

  2. Implementera rendering på serversidan. Det här är lösningen som kommer att lösa problemen vi observerar på Walmart.com utan att tillhandahålla annat innehåll till Google och användare (som i fallet med dynamisk rendering). I de flesta fallen, rendering på serversidan hjälper också till med webbprestandaproblem på lägre enheter, eftersom allt ditt JavaScript renderas av dina servrar innan det når klientens enhet.

Låt oss ta en titt på JavaScript-implementeringen som har gjorts rätt.

Vinnare: IKEA.com

IKEA bevisar att du kan presentera ditt huvudinnehåll på ett sätt som är tillgängligt för bots och interaktivt för användare.

När du surfar på IKEA.com produktsidor, deras produktbeskrivningar visas bakom klickbara paneler. När du klickar på dem visas de dynamiskt på höger sida av visningsporten.

Även om användare måste klicka för att se produktinformation, serverar Ikea också den avgörande delen av sina sidor även med JavaScript avstängt:

Detta sätt att presentera avgörande innehåll bör göra både användare och bots nöjda. Ur sökrobotarnas perspektiv är det lätt att komma åt produktbeskrivningar som inte förlitar sig på JavaScript. Följaktligen kan innehållet hittas på Google.


JavaScript behöver inte orsaka problem om du vet hur du använder det på rätt sätt. Som ett absolut måste måste du följa de bästa metoderna för indexering. Det kan låta dig undvika grundläggande JavaScript SEO misstag som avsevärt kan hindra din webbplatss synlighet på Google.

Ta hand om din indexeringspipeline och kontrollera om:

  • Du ger Google åtkomst till dina JavaScript-resurser,

  • Google kan komma åt och återge ditt JavaScript-genererade innehåll. Fokusera på de avgörande delarna av din e-handelssida, som produktkaruseller eller produktbeskrivningar,

  • Ditt innehåll indexeras faktiskt på Google.

Om min artikel fick dig intresserad av JS SEO, hitta mer information i Tomek Rudzkis artikel om 6 steg för att diagnostisera och lösa JavaScript SEO-problem.


Fortsätt läsa

Prenumerera på vårt nyhetsbrev
Vi lovar att inte spamma dig. Avsluta prenumerationen när som helst.
Ogiltig e-postadress