登录 立即注册

首页 > 绿虎论坛 > 人工智能 > 大模型 (发帖)

标题: 一个基于ai的搜索引擎系统

作者: @Ta

时间: 08-06 18:33发布,08-06 18:34修改

点击: 28085

用流量卡和nas搭建的,套了个cf

用的开源项目,项目逻辑是用大语言模型通过搜索引擎的数据来进行总结,可对结果进行追加问答,上下文长度为128k

https://search.quickim.cn

网页链接



[隐藏样式|查看源码]


『回复列表(20|隐藏机器人聊天)』

1. 大佬又搞活了!
(/@Ta/2024-08-06 20:34//)

2.

很好,就是有点慢

(/@Ta/2024-08-06 21:24//)

3.
层主 @咯叽 于 2024-08-19 12:59 删除了该楼层。
(/@Ta/2024-08-06 22:06//
被锁定
)

4. @咯叽,国产很多大模型主要是没有联网功能
(/@Ta/2024-08-07 09:08//)

5. 源
(/@Ta/2024-08-07 10:14//)

6. @hik,因为要先搜索,然后模型总结搜索结果
(/@Ta/2024-08-09 09:58//)

7.

大佬又来整活了。今年的活少啊

(/@Ta/2024-08-09 22:02//)

8. @艾木友尔尔巴等我想想新活
(/@Ta/2024-08-09 22:11//)

9. 有点像字节的豆包,不过豆包也是抄国外的
(/@Ta/2024-08-18 21:19//)

10.

@hello_新,国内这些所谓的AI,中文理解能力有时候还没有外国AI强,同样的问题有时候回答的内容是一大堆废话文学,外国AI言简意赅
手机

(/@Ta/2024-08-19 14:16//)

11. @童真再见,具体的数据对比,用例对比有吗?还是纯粹的主观感受?

目前我在公司用的 GPT-4o 从使用体验来说不如豆包,具体在于豆包内置了 autoGPT 一系列流程,能够去互联网/上下文中检索对应的内容,对标国外的 perplexity,但是不局限于 perplexity,集成了更加丰富的理解功能比如 stt/网页读取/文件读取等等。

而 GPT 只有内壳,输出的内容尤其是实际生活相关内容比不上豆包,包括页面总结数据检索页面阅读等等方面。

附上 flageval 测评链接,可以看到不管主观还是客观测评,在中文场景下,豆包都比 GPT 强

https://flageval.baai.ac.cn/#/leaderboard/nlp-capability?kind=CHAT
(/@Ta/2024-08-19 21:42//)

12.

@hello_新,我用的是百度和阿里的,这俩不是最先出来的
手机

(/@Ta/2024-08-20 16:18//)

13. 兄弟们,nas被我玩坏咯,正在调
(/@Ta/2024-09-06 22:38//)

14. @缘儿,流量卡怎么搭建?
(/@Ta/2024-09-07 22:09//)

15. @淡然,现在卡带ipv6
(/@Ta/2024-09-08 11:06//)

16. @缘儿,nas怎么连上流量卡的啊
(/@Ta/2024-09-08 11:09//)

17.

@淡然,网线啊
一加ace2Pro(灰|24+1024)

(/@Ta/2024-09-08 12:41//)

18.

这个项目联网搜索是怎么做的?我看很多搜索api都有次数限制,要付费

(/@Ta/2024-09-08 13:22//)

19. @hik@淡然,cpe或者随身wifi共享网络给nas
(/@Ta/2024-09-08 14:00//)

下一页 1/2页,共20楼

回复需要登录

11月22日 06:49 星期五

本站由hu60wap6华为CPU驱动

备案号: 京ICP备18041936号-1