When you have an Odoo website and you want to add Google softwares such as “Shopping feed Optimization” or Google Ads, Google might need to crawl all the website’s pages. An error can then occur with the default configuration of the robot.txt file in Odoo. This situation happened in v13, it might be fixed with the next versions.
Odoo is the world's easiest all-in-one management software.
It includes hundreds of business apps:
- CRM
- e-Commerce
- Kế toán
- Tồn kho
- PoS
- Project
- MRP
Câu hỏi này đã bị gắn cờ
Here is how to solve this problem.
We have to modify the current robot.txt file directly in Odoo.
To do so, activate the developer mode.
Then in general settings, go in Technical, then “Views” under the “User interface” tab.
Search for a view named “robots” and modify the architecture.
By default you have the following content
“User-agent: *”
We are going to erase this line and add the following ones:
“User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:”
Save the changes and now Google should be able to access all your website’s pages.
Bạn có hứng thú với cuộc thảo luận không? Đừng chỉ đọc, hãy tham gia nhé!
Tạo tài khoản ngay hôm nay để tận hưởng các tính năng độc đáo và tham gia cộng đồng tuyệt vời của chúng tôi!
Đăng kýBài viết liên quan | Trả lời | Lượt xem | Hoạt động | |
---|---|---|---|---|
|
1
thg 9 21
|
5389 | ||
|
0
thg 8 24
|
1599 | ||
|
1
thg 1 23
|
3677 | ||
|
1
thg 10 21
|
3092 | ||
|
2
thg 6 20
|
4157 |
okay got it. Then how can i enable to crawl for all the crawlers other than Google?