而且,微软还对ChatGPT的访问进行了内部限制,这说明他们也意识到了GPTs的风险性。自从自定制版GPT问世以来,各路大佬纷纷分享自己的整活链接。然而最近有网友意外地发现了其中一个GPTs背后的知识库文件。其中包含了各种科技大厂的职级薪资数据,直接曝光了各大公司的秘密,这可能会带来严重的后果。
目前,我们还不清楚这些知识库文件是如何被创建和使用的,但是我们必须高度警惕。GPTs的开发者声称用户可以深度定制机器人的身份、语言特征,还能建立自己的知识库。只需在GPT Builder的引导下使用自然语言描述,它能自动完成大部分设置,除了知识库以外。我们需要注意,这些功能可能会被用来窃取和滥用敏感数据。因此我们必须采取严格的措施来保护数据安全。定制好的GPTs可以自己使用,也可以分享链接给他人。
但是,我们必须确保用户在分享链接时没有泄露敏感信息,否则可能会导致严重的安全问题。一位开发者利用GPT为Levels.fyi创建了基本模型,可以分析数据可视化,并开放链接对外使用。我们必须高度警惕这种行为,并确保用户数据的安全。
微软内部限制了ChatGPT的访问。这是一个积极的迹象,表明他们也意识到了GPTs的风险性,并采取了措施来保护数据安全。GPTs仅亮相3天,就在昨天,面向付费用户全量开放了。这也说明他们希望通过付费模式来限制用户滥用GPTs的行为。
OpenAI在GPTs页面上提供了一些定制版机器人供用户使用,如数学导师、烹饪助手、谈判专家等。我们需要注意,这些定制版机器人也可能会被滥用,从而导致严重的安全问题。因此,我们必须加强对定制版机器人的监管和控制。但这远不能满足用户的好奇心,不到一天时间,开发者们已利用此功能创建了各种稀奇古怪的东西。
其中一些正经严肃,如帮助撰写提示词、修改简历等。这是一个非常危险的趋势,因为用户可能会被引导去使用这些定制版机器人来窃取敏感信息。稍显整活的,有能评价“爹味言论”、反击讨厌的PUA说教的。这也说明GPTs的使用可能会导致一些不良后果,我们需要高度警惕。还有一些玄学的,如具备MBTI 16人格分析、塔罗牌占卜等。这些功能也可能会被滥用,从而导致严重的安全问题。因此,我们必须加强对这些功能的监管和控制,并确保用户数据的安全。
相关教程
2024-11-17
2024-11-17
2024-11-16
2024-11-15
2024-11-14
2024-11-13
copyright © 2012-2024 win10系统家园 qdhuajin.com 版权声明