跳转至内容
0
  • 版块
  • 讨论
  • 最新
  • 标签
  • 热门
  • 顶端
  • 用户
  • 版块
  • 讨论
  • 最新
  • 标签
  • 热门
  • 顶端
  • 用户
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(Zephyr)
  • 不使用皮肤
折叠
JIKE社区
K

kangvcar

@kangvcar
🍌
关于
帖子
18
主题
3
分享
0
群组
1
粉丝
1
关注
0

帖子

最新 最佳 有争议的

  • 4折优惠限量购,InfoSpider项目提供技术支持了
    K kangvcar

    logo
    主页:https://infospider.vercel.app
    4折优惠:https://mianbaoduo.com/o/bread/aZiTlJo=

    活动优惠

  • 国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱: InfoSpider
    K kangvcar

    111

    技术专区 爬虫 python github

  • 国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱: InfoSpider
    K kangvcar

    已更新

    技术专区 爬虫 python github

  • 国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱: InfoSpider
    K kangvcar

    技术专区 爬虫 python github

  • 国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱: InfoSpider
    K kangvcar

    @midpoint 爬虫集合

    技术专区 爬虫 python github

  • 国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱: InfoSpider
    K kangvcar

    支持支持

    技术专区 爬虫 python github

  • 国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱: InfoSpider
    K kangvcar

    @involvements 引用网友的一句评论,“这些评论阴阳怪气的人,他们没什么成就”,你细品

    技术专区 爬虫 python github

  • 国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱: InfoSpider
    K kangvcar

    国内一位开发者在 GitHub 上开源了个集众多数据源于一身的爬虫工具箱:InfoSpider。

    其主要目的,在于帮助用户安全快捷的拿回自己的数据,并提供数据分析功能,基于用户数据生成图表文件,让用户能更直观、深入了解自己的信息。

    目前该工具箱支持了包括 GitHub 、知乎、B 站、以及各大知名邮箱与社交网站的用户数据爬取。

    Documentation:https://infospider.vercel.app

    GitHub:https://github.com/kangvcar/InfoSpider

    Video Demo:https://www.bilibili.com/video/BV14f4y1R7oF/

    程序

    技术专区 爬虫 python github

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    @zeze 比如哪些社交账号呀?

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    @zeze 哎哟!不错哦!已把你的需求加入TO-DO List

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    已更新
    开发者回忆录🌈
    场景一

    小明一如往常打开 Chrome 浏览器逛着论坛,贴吧,一不小心点开了网页上的广告,跳转到了京东商城,下意识去关闭窗口时发现 (OS:咦?京东怎么知道我最近心心念念的宝贝呢?刚好我正需要呢!),既然打开了那就看看商品详情吧 (OS:哎哟不错哦),那就下单试试吧!

    场景二

    小白听着网易云音乐的每日推荐歌单无法自拔 (OS:哇!怎么播放列表里都是我喜欢的音乐风格?网易云音乐太棒了吧!深得我心啊!黑胶会员必须来一个!),逛着知乎里的“如何优雅的XXX?”,“XXX是怎样一种体验?”,“如何评价XXX?” (OS:咦?这个问题就是我刚好想问的,原来早已有人提问!什么???还有几千条回答!!进去逛逛看!)

    场景三

    小达上班时不忘充实自己,逛着各大技术论坛博客园、CSDN、开源中国、简书、掘金等等,发现首页的内容推荐太棒了(OS:这些技术博文太棒了,不用找就出来了),再打开自己的博客主页发现不知不觉地自己也坚持写博文也有三年了,自己的技术栈也越来越丰富(OS:怎么博客后台都不提供一个数据分析系统呢?我想看看我这几年来的发文数量,发文时间,想知道哪些博文比较热门,想看看我在哪些技术上花费的时间更多,想看看我过去的创作高峰期时在晚上呢?还是凌晨?我希望系统能给我更多指引数据让我更好的创作!)

    看到以上几个场景你可能会感叹科技在进步,技术在发展,极大地改善了我们的生活方式。

    但当你深入思考,你浏览的每个网站,注册的每个网站,他们都记录着你的信息你的足迹。

    细思恐极的背后是自己的个人数据被赤裸裸的暴露在互联网上并且被众多的公司利用用户数据获得巨额利益,如对用户的数据收集分析后进行定制的广告推送,收取高额广告费。但作为数据的生产者却没能分享属于自己的数据收益。

    想法

    如果有一个这样的工具,它能帮你拿回你的个人信息,它能帮你把分散在各种站点的个人信息聚合起来,它能帮你分析你的个人数据并给你提供建议,它能帮你把个人数据可视化让你更清楚地了解自己。

    你是否会需要这样的工具呢? 你是否会喜欢这样的工具呢?
    基于以上,我着手开发了 INFO-SPIDER

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    欢迎大家使用

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    支持一下

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    @nianian 用起来,不吃灰😊

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    @nianian 你去github提交issues,这里发言要间隔60000s是什么鬼

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    @zeze 用点时间就可以了呀

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    @PANc 谢谢你的支持!可以的话帮忙给项目一个star,让更多人看到,谢谢。

    软件资源

  • INFO-SPIDER 爬虫工具箱,强大,已开源,欢迎star
    K kangvcar

    https://github.com/kangvcar/InfoSpider

    INFO-SPIDER 是一个集众多数据源于一身的爬虫工具箱,旨在安全快捷的帮助用户拿回自己的数据,工具代码开源,流程透明。并提供数据分析功能,基于用户数据生成图表文件,使得用户更直观、深入了解自己的信息。 目前支持数据源包括GitHub、QQ邮箱、网易邮箱、阿里邮箱、新浪邮箱、Hotmail邮箱、Outlook邮箱、京东、淘宝、支付宝、中国移动、中国联通、中国电信、知乎、哔哩哔哩、网易云音乐、QQ好友、QQ群、生成朋友圈相册、浏览器浏览历史、12306、博客园、CSDN博客、开源中国博客、简书。

    软件资源
  • 1 / 1
  • 登录

  • 没有帐号? 注册

  • 登录或注册以进行搜索。
百度网盘
1,269 个主题
连续剧
725 个主题
国产剧
579 个主题
美剧
349 个主题
中国移动
307 个主题
动画片
243 个主题
中国电信
222 个主题
动作片
209 个主题

184

在线

40.2k

用户

40.0k

主题

110.4k

帖子
  • 第一个帖子
    最后一个帖子