Connect with us

SEO

"Varje app kommer att bli en AI-app"

Published

on

"Varje app kommer att bli en AI-app"

During a recent earnings call with shareholders, the CEO of Microsoft, Satya Nadella, stated that artificial intelligence would eventually be included in all of the company’s applications.

After discussing Microsoft’s financial performance for the last quarter, Nadella answered questions about AI and its expected integration into more products.

Given Microsoft’s commitment to expanding its partnership with OpenAI, it makes sense that shareholders would have questions about when Microsoft plans to use the technology it’s investing in.

Although Nadella wasn’t willing to give a specific date, he stated that AI would be integrated into all of Microsoft’s applications in the future.

In this article, we’ll take a closer look at Nadella’s statements regarding AI and briefly summarize the relevant highlights from Microsoft’s earnings report.

Nadella Says Every Microsoft App Will Be An AI App

Tyler Radke, the Lead Analyst at Citi, asked Nadella about the extent to which AI will be employed throughout Microsoft Azure, which is the cloud computing platform that runs its applications.

This was Nadella’s response:

“I think it’s too early to sort of start somehow separating out AI from the rest of the workload. I mean, even the workloads themselves, AI is just going to be a core part of a workload in Azure versus just AI alone. In other words, if you have an application that’s using a bunch of inference, let’s say, it’s also going to have a bunch of storage, and it’s going to have a bunch of other compute beyond GPU inferencing, if you will. I think over time, obviously, I think every app is going to be an AI app. That’s, I think, the best way to think about this transformation.”

Nadella is saying it’s too early to separate AI into its own category because it’s becoming a core part of all products.

He believes AI will be integrated into all apps over time and will also be integrated with storage and other forms of computing beyond just GPU inferencing.

In response to a question from Keith Weiss of Morgan Stanley, Nadella expressed a similar sentiment, saying investors should expect AI to be included in everything.

“I think the way for our investors to see this is we fundamentally believe that the next big platform wave, as I said, is going to be AI. And we strongly also believe a lot of the enterprise value gets created by just being able to catch these waves, and then have those waves impact every part of our tech stack, and also create new solutions and new opportunities…

And so, we fully expect us to sort of incorporate AI in every layer of the stack, whether it’s in productivity, whether it’s in our consumer services.”

Other Highlights From Microsoft’s Earnings Call

Microsoft announced that in the last quarter of 2022, it made $52.7 billion in revenue, which is 2% more than the year before.

However, the company’s profit is down due to decreases in operating income, net income, and earnings per share.

Advertising spending declined slightly more than expected, impacting search and news advertising and LinkedIn Marketing Solutions.

One of the most notable highlights is the increase in LinkedIn revenue by 10%. This indicates the professional networking platform is performing well and that businesses can feel confident investing their time in it.

Another highlight from the report is the increase in revenue for server products and cloud services by 20%. This growth was driven by the revenue of Azure and other cloud services, which increased by 31%.

This indicates that Microsoft’s cloud services are becoming increasingly popular in the market, which bodes well for the future of the company’s partnership with OpenAI.

Despite a slight decrease in profit, the company’s overall financial performance remains strong.


Källa: Microsoft

Featured Image: ThomasAFink/Shutterstock



Källlänk

Keep an eye on what we are doing
Be the first to get latest updates and exclusive content straight to your email inbox.
We promise not to spam you. You can unsubscribe at any time.
Invalid email address
Click to comment

Leave a Reply

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *

SEO

Optimera din SEO-strategi för maximal ROI med dessa 5 tips

Published

on

Optimera din SEO-strategi för maximal ROI med dessa 5 tips

Wondering what improvements can you make to boost organic search results and increase ROI?

If you want to be successful in SEO, even after large Google algorithm updates, be sure to:

  1. Keep the SEO fundamentals at the forefront of your strategy.
  2. Prioritize your SEO efforts for the most rewarding outcomes.
  3. Focus on uncovering and prioritizing commercial opportunities if you’re in ecommerce.
  4. Dive into seasonal trends and how to plan for them.
  5. Get tip 5 and all of the step-by-step how-tos by joining our upcoming webinar.

We’ll share five actionable ways you can discover the most impactful opportunities for your business and achieve maximum ROI.

You’ll learn how to:

  • Identify seasonal trends and plan for them.
  • Report on and optimize your online share of voice.
  • Maximize SERP feature opportunities, most notably Popular Products.

Join Jon Earnshaw, Chief Product Evangelist and Co-Founder of Pi Datametrics, and Sophie Moule, Head of Product and Marketing at Pi Datametrics, as they walk you through ways to drastically improve the ROI of your SEO strategy.

In this live session, we’ll uncover innovative ways you can step up your search strategy and outperform your competitors.

Ready to start maximizing your results and growing your business?

Anmäl dig nu and get the actionable insights you need for SEO success.

Can’t attend the live webinar? We’ve got you covered. Register anyway and you’ll get access to a recording, after the event.



Källlänk

Keep an eye on what we are doing
Be the first to get latest updates and exclusive content straight to your email inbox.
We promise not to spam you. You can unsubscribe at any time.
Invalid email address
Continue Reading

SEO

TikToks framtid i USA osäker: VD möter kongressen

Published

on

TikTok's amerikanska framtid osäker: VD möter kongressen

During a five-hour congressional hearing, TikTok CEO Shou Zi Chew faced intense scrutiny from U.S. lawmakers about the social media platform’s connections to its Chinese parent company, ByteDance.

Legislators from both sides demanded clear answers on whether TikTok spies on Americans for China.

The U.S. government has been pushing for the divestiture of TikTok and has even threatened to ban the app in the United States.

Chew found himself in a difficult position, attempting to portray TikTok as an independent company not influenced by China.

However, lawmakers remained skeptical, citing China’s opposition to the sale of TikTok as evidence of the country’s influence over the company.

The hearing was marked by a rare display of bipartisan unity, with the tone harsher than in previous congressional hearings featuring American social media executives.

The Future of TikTok In The US

With the U.S. and China at odds over TikTok’s sale, the app faces two possible outcomes in the United States.

Either TikTok gets banned, or it revisits negotiations for a technical fix to data security concerns.

Lindsay Gorman, head of technology and geopolitics at the German Marshall Fund, said, “The future of TikTok in the U.S. is definitely dimmer and more uncertain today than it was yesterday.”

TikTok has proposed measures to protect U.S. user data, but no security agreement has been reached.

Addressing Concerns About Societal Impact

Lawmakers at the hearing raised concerns about TikTok’s impact on young Americans, accusing the platform of invading privacy and harming mental health.

Enligt Pew Research Center, the app is used by 67% of U.S. teenagers.

Critics argue that the app is too addictive and its algorithm can expose teens to dangerous or lethal situations.

Chew pointed to new screen time limits and content guidelines to address these concerns, but lawmakers remained unconvinced.

Sammanfattningsvis

The House Energy and Commerce Committee’s hearing on TikTok addressed concerns common to all social media platforms, like spreading harmful content and collecting massive user data.

Most committee members were critical of TikTok, but many avoided the typical grandstanding seen in high-profile hearings.

The hearing aimed to make a case for regulating social media and protecting children rather than focusing on the national security threat posed by the app’s connection to China.

If anything emerges from this hearing, it could be related to those regulations.

The hearing also allowed Congress to convince Americans that TikTok is a national security threat that warrants a ban.

This concern arises from the potential for the Chinese government to access the data of TikTok’s 150 million U.S. users or manipulate its recommendation algorithms to spread propaganda or disinformation.

However, limited public evidence supports these claims, making banning the app seem extreme and potentially unnecessary.

As events progress, staying informed is crucial as the outcome could impact the digital marketing landscape.


Featured Image: Rokas Tenys/Shutterstock

Full replay of congressional hearing available on Youtube.



Källlänk

Keep an eye on what we are doing
Be the first to get latest updates and exclusive content straight to your email inbox.
We promise not to spam you. You can unsubscribe at any time.
Invalid email address
Continue Reading

SEO

Allt du behöver veta

Published

on

Allt du behöver veta

Google has just released Bard, its answer to ChatGPT, and users are getting to know it to see how it compares to OpenAI’s artificial intelligence-powered chatbot.

The name ‘Bard’ is purely marketing-driven, as there are no algorithms named Bard, but we do know that the chatbot is powered by LaMDA.

Here is everything we know about Bard so far and some interesting research that may offer an idea of the kind of algorithms that may power Bard.

What Is Google Bard?

Bard is an experimental Google chatbot that is powered by the LaMDA large language model.

It’s a generative AI that accepts prompts and performs text-based tasks like providing answers and summaries and creating various forms of content.

Bard also assists in exploring topics by summarizing information found on the internet and providing links for exploring websites with more information.

Why Did Google Release Bard?

Google released Bard after the wildly successful launch of OpenAI’s ChatGPT, which created the perception that Google was falling behind technologically.

ChatGPT was perceived as a revolutionary technology with the potential to disrupt the search industry and shift the balance of power away from Google search and the lucrative search advertising business.

On December 21, 2022, three weeks after the launch of ChatGPT, the New York Times reported that Google had declared a “code red” to quickly define its response to the threat posed to its business model.

Forty-seven days after the code red strategy adjustment, Google announced the launch of Bard on February 6, 2023.

What Was The Issue With Google Bard?

The announcement of Bard was a stunning failure because the demo that was meant to showcase Google’s chatbot AI contained a factual error.

The inaccuracy of Google’s AI turned what was meant to be a triumphant return to form into a humbling pie in the face.

Google’s shares subsequently lost a hundred billion dollars in market value in a single day, reflecting a loss of confidence in Google’s ability to navigate the looming era of AI.

How Does Google Bard Work?

Bard is powered by a “lightweight” version of LaMDA.

LaMDA is a large language model that is trained on datasets consisting of public dialogue and web data.

There are two important factors related to the training described in the associated research paper, which you can download as a PDF here: LaMDA: Language Models for Dialog Applications (read the abstract here).

  • A. Safety: The model achieves a level of safety by tuning it with data that was annotated by crowd workers.
  • B. Groundedness: LaMDA grounds itself factually with external knowledge sources (through information retrieval, which is search).

The LaMDA research paper states:

“…factual grounding, involves enabling the model to consult external knowledge sources, such as an information retrieval system, a language translator, and a calculator.

We quantify factuality using a groundedness metric, and we find that our approach enables the model to generate responses grounded in known sources, rather than responses that merely sound plausible.”

Google used three metrics to evaluate the LaMDA outputs:

  1. Sensibleness: A measurement of whether an answer makes sense or not.
  2. Specificity: Measures if the answer is the opposite of generic/vague or contextually specific.
  3. Interestingness: This metric measures if LaMDA’s answers are insightful or inspire curiosity.

All three metrics were judged by crowdsourced raters, and that data was fed back into the machine to keep improving it.

The LaMDA research paper concludes by stating that crowdsourced reviews and the system’s ability to fact-check with a search engine were useful techniques.

Google’s researchers wrote:

“We find that crowd-annotated data is an effective tool for driving significant additional gains.

We also find that calling external APIs (such as an information retrieval system) offers a path towards significantly improving groundedness, which we define as the extent to which a generated response contains claims that can be referenced and checked against a known source.”

How Is Google Planning To Use Bard In Search?

The future of Bard is currently envisioned as a feature in search.

Google’s announcement in February was insufficiently specific on how Bard would be implemented.

The key details were buried in a single paragraph close to the end of the blog announcement of Bard, where it was described as an AI feature in search.

That lack of clarity fueled the perception that Bard would be integrated into search, which was never the case.

Google’s February 2023 announcement of Bard states that Google will at some point integrate AI features into search:

“Soon, you’ll see AI-powered features in Search that distill complex information and multiple perspectives into easy-to-digest formats, so you can quickly understand the big picture and learn more from the web: whether that’s seeking out additional perspectives, like blogs from people who play both piano and guitar, or going deeper on a related topic, like steps to get started as a beginner.

These new AI features will begin rolling out on Google Search soon.”

It’s clear that Bard is not search. Rather, it is intended to be a feature in search and not a replacement for search.

What Is A Search Feature?

A feature is something like Google’s Knowledge Panel, which provides knowledge information about notable people, places, and things.

Google’s “How Search Works” webpage about features explains:

“Google’s search features ensure that you get the right information at the right time in the format that’s most useful to your query.

Sometimes it’s a webpage, and sometimes it’s real-world information like a map or inventory at a local store.”

In an internal meeting at Google (reported by CNBC), employees questioned the use of Bard in search.

One employee pointed out that large language models like ChatGPT and Bard are not fact-based sources of information.

The Google employee asked:

“Why do we think the big first application should be search, which at its heart is about finding true information?”

Jack Krawczyk, the product lead for Google Bard, answered:

“I just want to be very clear: Bard is not search.”

At the same internal event, Google’s Vice President of Engineering for Search, Elizabeth Reid, reiterated that Bard is not search.

She said:

"Bard är verkligen skild från sök..."

Vad vi med säkerhet kan dra slutsatsen är att Bard inte är en ny iteration av Google-sökning. Det är en funktion.

Bard är en interaktiv metod för att utforska ämnen

Googles tillkännagivande av Bard var ganska tydligt att Bard inte är sök. Detta innebär att medan sökningar visar länkar till svar, hjälper Bard användare att undersöka kunskap.

Tillkännagivandet förklarar:

"När folk tänker på Google tänker de ofta på att vända sig till oss för snabba faktasvar, som "hur många tangenter har ett piano?"

Men i allt högre grad vänder sig människor till Google för djupare insikter och förståelse – som "är piano eller gitarr lättare att lära sig och hur mycket övning behöver var och en?"

Att lära sig om ett ämne som detta kan ta mycket ansträngning för att ta reda på vad du verkligen behöver veta, och folk vill ofta utforska en mängd olika åsikter eller perspektiv.”

Det kan vara bra att tänka på Bard som en interaktiv metod för att få tillgång till kunskap om ämnen.

Bard Samples Web Information

Problemet med stora språkmodeller är att de härmar svar, vilket kan leda till faktafel.

Forskarna som skapade LaMDA säger att tillvägagångssätt som att öka modellens storlek kan hjälpa den att få mer faktainformation.

Men de noterade att detta tillvägagångssätt misslyckas inom områden där fakta ständigt förändras under tidens gång, vilket forskare kallar det "temporala generaliseringsproblemet."

Färskhet i betydelsen aktuell information kan inte tränas med en statisk språkmodell.

Lösningen som LaMDA eftersträvade var att söka efter informationshämtningssystem. Ett informationshämtningssystem är en sökmotor, så LaMDA kontrollerar sökresultaten.

Denna funktion från LaMDA verkar vara en funktion hos Bard.

Tillkännagivandet från Google Bard förklarar:

“Bard strävar efter att kombinera bredden av världens kunskap med kraften, intelligensen och kreativiteten hos våra stora språkmodeller.

Den bygger på information från webben för att ge färska, högkvalitativa svar.”

Skärmdump av en Google Bard Chat, mars 2023

LaMDA och (eventuellt i förlängningen) Bard uppnår detta med det som kallas verktygsuppsättningen (TS).

Verktygsuppsättningen förklaras i LaMDA-forskarartikeln:

"Vi skapar en verktygsuppsättning (TS) som inkluderar ett informationshämtningssystem, en kalkylator och en översättare.

TS tar en enstaka sträng som indata och matar ut en lista med en eller flera strängar. Varje verktyg i TS förväntar sig en sträng och returnerar en lista med strängar.

Till exempel tar räknaren "135+7721" och matar ut en lista som innehåller ["7856"]. På samma sätt kan översättaren ta "hej på franska" och skriva ut ['Bonjour'].

Slutligen kan informationshämtningssystemet ta 'Hur gammal är Rafael Nadal?' och utmata ['Rafael Nadal / Ålder / 35'].

Systemet för informationshämtning kan också returnera utdrag av innehåll från den öppna webben, med motsvarande URL:er.

TS:n försöker en inmatningssträng på alla sina verktyg och producerar en slutlig utdatalista med strängar genom att sammanfoga utdatalistorna från varje verktyg i följande ordning: kalkylator, översättare och informationshämtningssystem.

Ett verktyg kommer att returnera en tom lista med resultat om det inte kan analysera indata (t.ex. kan räknaren inte analysera "Hur gammal är Rafael Nadal?"), och bidrar därför inte till den slutliga utdatalistan."

Här är ett Bard-svar med ett utdrag från den öppna webben:

Google Bard: Allt du behöver vetaSkärmdump av en Google Bard Chat, mars 2023

System för konversation av frågor och svar

Det finns inga forskningsartiklar som nämner namnet "Bard."

Det finns dock en hel del ny forskning relaterad till AI, inklusive av forskare associerade med LaMDA, som kan ha en inverkan på Bard.

Följande hävdar inte att Google använder dessa algoritmer. Vi kan inte med säkerhet säga att någon av dessa tekniker används i Bard.

Värdet av att veta om dessa forskningsdokument är att veta vad som är möjligt.

Följande är algoritmer som är relevanta för AI-baserade frågesvarssystem.

En av författarna till LaMDA arbetade med ett projekt som handlar om att skapa träningsdata för ett konversationsinformationshämtningssystem.

Du kan ladda ner forskningsrapporten 2022 som PDF här: Dialog Inpainting: Förvandla dokument till dialoger (och läs abstrakt här).

Problemet med att träna ett system som Bard är att fråge-och-svar-datauppsättningar (som datauppsättningar som består av frågor och svar som finns på Reddit) är begränsade till hur människor på Reddit beter sig.

Det omfattar inte hur människor utanför den miljön beter sig och vilka typer av frågor de skulle ställa, och vad de korrekta svaren på dessa frågor skulle vara.

Forskarna undersökte att skapa ett system som läste webbsidor och använde sedan en "dialog inpainter" för att förutsäga vilka frågor som skulle besvaras av en given passage inom det som maskinen läste.

Ett avsnitt på en pålitlig Wikipedia-webbsida som säger "Himlen är blå" skulle kunna förvandlas till frågan "Vilken färg har himlen?"

Forskarna skapade sin egen datauppsättning med frågor och svar med hjälp av Wikipedia och andra webbsidor. De kallade datamängderna WikiDialog och WebDialog.

  • WikiDialog är en uppsättning frågor och svar som härrör från Wikipedia-data.
  • WebDialog är en datauppsättning som härrör från webbsidedialogen på internet.

Dessa nya datauppsättningar är 1 000 gånger större än befintliga datauppsättningar. Vikten av det är att det ger samtalsspråksmodeller en möjlighet att lära sig mer.

Forskarna rapporterade att denna nya datamängd hjälpte till att förbättra konversationsfrågesvarssystem med över 40%.

Forskningsdokumentet beskriver framgången med detta tillvägagångssätt:

"Viktigt, vi finner att våra målade datauppsättningar är kraftfulla källor för träningsdata för ConvQA-system...

När de används för att förträna standardretriever- och rerankerarkitekturer, avancerar de toppmoderna över tre olika ConvQA-hämtningsmätvärden (QRECC, OR-QUAC, TREC-CAST), och ger upp till 40% relativa vinster på standardutvärderingsmått...

Anmärkningsvärt nog finner vi att bara förträning på WikiDialog möjliggör en stark noll-shot-hämtningsprestanda – upp till 95% av en finjusterad retrievers prestanda – utan att använda någon ConvQA-data inom domänen. "

Är det möjligt att Google Bard tränades med hjälp av WikiDialog- och WebDialog-datauppsättningarna?

Det är svårt att föreställa sig ett scenario där Google skulle vidarebefordra träning av en konversations-AI på en datauppsättning som är över 1 000 gånger större.

Men vi vet inte säkert eftersom Google inte ofta kommenterar dess underliggande teknologier i detalj, förutom vid sällsynta tillfällen som för Bard eller LaMDA.

Stora språkmodeller som länkar till källor

Google publicerade nyligen en intressant forskningsartikel om ett sätt att få stora språkmodeller att citera källorna för sin information. Den första versionen av tidningen publicerades i december 2022 och den andra versionen uppdaterades i februari 2023.

Denna teknik kallas experimentell från och med december 2022.

Du kan ladda ner PDF-filen av tidningen här: Tillskrivna frågesvar: Utvärdering och modellering för tillskrivna stora språkmodeller (Läs Google abstrakt här).

Forskningsdokumentet anger avsikten med tekniken:

"Stora språkmodeller (LLM) har visat imponerande resultat samtidigt som de kräver liten eller ingen direkt övervakning.

Vidare finns det allt fler bevis för att LLM kan ha potential i informationssökande scenarier.

Vi tror att förmågan hos en LLM att tillskriva texten som den genererar sannolikt kommer att vara avgörande i den här miljön.

Vi formulerar och studerar Attributed QA som ett viktigt första steg i utvecklingen av tillskrivna LLM.

Vi föreslår ett reproducerbart utvärderingsramverk för uppgiften och jämför en bred uppsättning arkitekturer.

Vi tar mänskliga anteckningar som en guldstandard och visar att en korrelerad automatisk metrik är lämplig för utveckling.

Vårt experimentella arbete ger konkreta svar på två nyckelfrågor (Hur mäter man attribution? och Hur bra presterar nuvarande toppmoderna metoder på attribution?), och ger några tips om hur man kan lösa en tredje (Hur man bygga LLM med attribution?).

Den här typen av stora språkmodeller kan träna ett system som kan svara med stödjande dokumentation som teoretiskt säkerställer att svaret är baserat på något.

Forskningsdokumentet förklarar:

"För att utforska dessa frågor, föreslår vi Attributed Question Answering (QA). I vår formulering är input till modellen/systemet en fråga, och utdata är ett (svar, attribution) par där svaret är en svarssträng och attribution är en pekare till en fast korpus, t.ex. av stycken.

Den returnerade tillskrivningen bör ge stödjande bevis för svaret."

Den här tekniken är speciellt avsedd för frågor som svarar på frågor.

Målet är att skapa bättre svar – något som Google förståeligt nog skulle vilja ha för Bard.

  • Attribution tillåter användare och utvecklare att bedöma "tillförlitligheten och nyansen" av svaren.
  • Attribution tillåter utvecklare att snabbt granska kvaliteten på svaren eftersom källorna tillhandahålls.

En intressant anteckning är en ny teknik som kallas AutoAIS som starkt korrelerar med mänskliga bedömare.

Med andra ord kan den här tekniken automatisera mänskliga bedömares arbete och skala processen för att betygsätta svaren som ges av en stor språkmodell (som Bard).

Forskarna delar:

"Vi anser att mänskligt betyg är guldstandarden för systemutvärdering, men finner att AutoAIS korrelerar bra med mänskligt omdöme på systemnivå, och erbjuder lovande som ett utvecklingsmått där mänskligt betyg är omöjligt, eller till och med som en bullrig träningssignal. "

Denna teknik är experimentell; den används förmodligen inte. Men det visar en av riktningarna som Google utforskar för att producera pålitliga svar.

Forskningsuppsats om redigering av svar för fakta

Slutligen finns det en anmärkningsvärd teknologi som utvecklats vid Cornell University (också från slutet av 2022) som utforskar ett annat sätt att källattribut för vad en stor språkmodell ger ut och till och med kan redigera ett svar för att rätta sig själv.

Cornell University (som Stanford University) licensierar teknik relaterade till sök och andra områden, tjänar miljontals dollar per år.

Det är bra att hänga med i universitetsforskningen eftersom den visar vad som är möjligt och vad som är spjutspets.

Du kan ladda ner en PDF av tidningen här: RARR: Undersöka och revidera vad språkmodeller säger, med hjälp av språkmodeller (och read the abstract here).

Sammanfattningen förklarar tekniken:

"Språkmodeller (LM) utmärker sig nu i många uppgifter som inlärning av få skott, svar på frågor, resonemang och dialog.

Men ibland genererar de innehåll som inte stöds eller vilseledande.

En användare kan inte enkelt avgöra om deras utdata är tillförlitliga eller inte, eftersom de flesta LM:er inte har någon inbyggd mekanism för att tillskriva externa bevis.

För att möjliggöra attribution samtidigt som alla kraftfulla fördelar med den senaste generationens modeller bevaras, föreslår vi RARR (Retrofit Attribution using Research and Revision), ett system som 1) automatiskt hittar attribution för utdata från vilken textgenereringsmodell som helst och 2) efterredigerar utdata för att fixa innehåll som inte stöds samtidigt som originalutdata bevaras så mycket som möjligt.

...vi finner att RARR förbättrar attributionen avsevärt samtidigt som den ursprungliga indata bevaras i mycket högre grad än tidigare utforskade redigeringsmodeller.

Dessutom kräver implementeringen av RARR bara en handfull träningsexempel, en stor språkmodell och standardwebbsökning.”

Hur får jag tillgång till Google Bard?

Google accepterar för närvarande nya användare för att testa Bard, som för närvarande är märkt som experimentell. Google lanserar åtkomst för Bard här.

Google Bard är experimentellSkärmdump från bard.google.com, mars 2023

Google är på posten och säger att Bard inte är sök, vilket borde lugna dem som känner oro inför AI:s gryning.

Vi befinner oss vid en vändpunkt som inte liknar någon annan vi sett på kanske ett decennium.

Att förstå Bard är till hjälp för alla som publicerar på webben eller utövar SEO eftersom det är bra att veta gränserna för vad som är möjligt och framtiden för vad som kan uppnås.

Fler resurser:


Utvald bild: Whyredphotographor/Shutterstock



Källlänk

Keep an eye on what we are doing
Be the first to get latest updates and exclusive content straight to your email inbox.
We promise not to spam you. You can unsubscribe at any time.
Invalid email address
Continue Reading

Trendigt

sv_SESvenska