1.网站TDK设置标签。title,description,keywords,核心关键词根据产品业务总结为TDK每个页面的内容都不一样。如果每个页面keywords同样,搜索引擎会怀疑你有嫌疑。
此外,还有meta的canonical一个网站也通过多个设置url访问,canonical用来告诉搜索引擎这么多url最有价值、最重要的一个url,一般是网站的主页。
2.建立robots.txt文件。seorobots该文件是搜索引擎登录网站的**个访问文件,robots最重要的是设置允许被访问的搜索引擎Allow和不允许Disallow访问目录和文件,少写Disallow,多写Allow,目的是引导爬虫抓取网站的信息。另外,在robots文件底部指示网站sitemap爬虫读取文件目录sitemap路径,然后抓取链接的网页。提高网站的收录量。
案例:按住ctrl键点击:
3.建立网站sitemap地图文件。sitemap它是对网站栏目和连接进行分类的文件,能更好地向搜索引擎展示网站,提高爬虫爬行效率。sitemap包括地图文件html(用户)和xml(搜索引擎)两种。当网站更新频繁时,sitemap自动更新文件(程序实现),不频繁更新可手动更新提交。前端如何做好seo。
4.图片img必须添加标签alt性,并注明图片的含义。
5.h1~h6合理使用标签。所有的标签都需要根据自己的语气合理使用,这里就不讲了,这里只讲h标签的注意事项。h一页只能出现一次标签,h2标签通常用作二级标题或文章的小标题。使用时最合理h1~h按顺序层层嵌套,不得断层或反序。