当我开始这个项目时,我的想法很简单:“为什么不把博客转换成图表呢?”随着项目的发展,我始终忠于这个核心理念。
我们都在文档和几乎所有其他地方使用Markdown,但以可视化的方式查看结构对我来说一直很困难。我在寻找一种方法,可以轻松查看链接,并在需要时深入了解详细内容。
当然,我可以使用像Mermaid这样的工具,但我想从零开始构建,以使其更加灵活、互动,并且不依赖于其他工具。
使用起来非常简单。你可以调整块的颜色,轻松创建链接,最重要的是,你可以在一个Markdown文件中完成所有这些操作。
我链接的演示是一个聊天应用程序,同时也作为图表生成器。在与AI聊天的过程中,左侧会为你生成Markdown文本。你可以复制它生成的代码。它可以直接在你自己的网站上使用;你只需将库的CDN链接添加到你的页面即可。你可以通过下面的GitHub或npm链接,或者聊天窗口右上角的链接访问详细文档。
GitHub: [https://github.com/bthndmn12/diagram-blog](https://github.com/bthndmn12/diagram-blog)
npm: [https://www.npmjs.com/package/diagram-blog](https://www.npmjs.com/package/diagram-blog)
聊天演示: [https://diagram-chat-ai.vercel.app](https://diagram-chat-ai.vercel.app)
返回首页
最新
嘿,HN,
我正在构建 Databite,这是一个开源工具集,旨在帮助开发者更快速、更轻松地构建集成。
如果你曾经构建过一个需要更新 CRM 记录、在应用之间同步数据或在第三方工具中触发工作流的 SaaS 产品或 AI 代理,你可能花了太多时间在编写粘合代码上。Databite 就是为了解决这个问题而诞生的。
使用 Databite,你可以:
- 通过 databite/connectors 包访问预构建的连接器。
- 使用我们的 databite/build 包创建自定义连接器,连接你选择的服务,如 Slack、Notion、HubSpot、Google Sheets 等。
- 使用我们的 databite/connect 包将一键认证流程嵌入到你的 React 项目中。
- 使用我们的 databite/engine 包安排同步和管理连接。
- 提供文档,并使用我们的 databite/ai 包让 AI 为你构建新的连接器。
我们的目标是让构建集成变得像 npm 安装库一样简单。
这对于构建需要大型操作库的 AI 代理尤其有用。Databite 可以作为你的代理执行现实世界任务的“集成层”。
我们仍处于早期阶段(目前不建议将这些库用于任何严肃的项目,我分享这个是为了早期反馈,否则我可能永远不会去做 (: )。我们的目标是开始建立一个感兴趣的贡献者社区。我相信,考虑到这个问题的性质和规模,集成问题只能通过一个充满活力的开源项目来真正解决(我们在 MIT 许可证下,几乎允许所有想象得到的用例)。
你可以在我们的网站上了解更多信息([https://databite.dev](https://databite.dev))。
或者在 GitHub 上关注我们,获取我们的进展通知([https://github.com/DatabiteDev/databite](https://github.com/DatabiteDev/databite))。
我通过与自定义硬件加速器集成到PyTorch的相同系统,将远程GPU执行后端集成到PyTorch中。您可以创建一个远程机器,并在需要创建或移动张量到远程GPU时获取其CUDA设备。
```python
machine = mycelya_torch.RemoteMachine("modal", "A100")
cuda_device = machine.device("cuda")
x = torch.randn(1000, 1000, device=cuda_device)
y = torch.randn(1000, 1000).to(cuda_device)
```
我通过尽可能让大多数操作异步调度,使其性能相对合理。对于一些不可避免的低性能情况,例如将多个GB的权重上传到GPU,我添加了一个装饰器,可以应用于函数,将其转换为远程执行的函数。在大多数情况下,函数的行为在有无装饰器时应保持一致;主要区别在于函数代码是在本地执行还是远程执行。
```python
import mycelya_torch
from transformers import AutoModelForCausalLM, AutoTokenizer
@mycelya_torch.remote
def load_model(model_name: str):
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name, torch_dtype="auto", device_map="auto"
)
return model, tokenizer
```
目前您只能将其与Modal作为云服务提供商一起使用,并且在他们的免费每月额度内使用是免费的。我非常欢迎任何反馈和错误报告 :)
我经常在头脑风暴新项目时寻找域名,但大多数域名市场充斥着无意义的名称或已经被注册的域名。因此,我创建了SeekLex——它会对超过100万个二手域名进行预处理,以过滤掉无意义的名称,检测有意义的单词,并在您喜欢的名称已被占用时生成创意域名组合。
我们的目标是使域名发现变得更智能、更快速,利用自动化和(即将推出的)人工智能。我计划添加一个API、MCP集成和一个大型语言模型代理,以帮助您找到下一个项目的最佳域名。
非常期待您的反馈和想法。
大家好,
我们创建了OSMEA(开源移动电子商务架构)——一个完整的开源Flutter生态系统,用于构建可扩展的、准备投入生产的电子商务应用程序。
与其从零开始或拼凑随机插件,OSMEA提供了一个模块化架构、自定义UI组件库,以及现成的API集成,支持Shopify、WooCommerce和自定义后端。
亮点:
- 模块化与可组合性 – 只构建你所需的功能。
- 平台无关 – 支持Shopify、WooCommerce或任何API。
- 自定义UI组件库 – 可主题化、准备投入生产的Flutter组件。
- 企业级准备 – CI/CD、测试覆盖率、异步安全架构。
- 跨平台 – 从一个代码库支持iOS、Android、Web和桌面。
我们设计这个架构旨在帮助团队将电子商务应用的交付速度提高70%,同时保持代码库的整洁、可测试和可维护。
代码库(MIT许可证):
[https://github.com/masterfabric-mobile/osmea](https://github.com/masterfabric-mobile/osmea)
我们非常希望听到社区的反馈,特别是在以下方面:
- 架构可扩展性
- 集成改进
- 现实世界的部署经验
感谢您的关注!