做云市场行业的领导者
欢迎光临本网站
主页 > 阿里云 >

使用融合云和M什么叫云服务器-ongoDB的实时车队管理

发布时间:2020-09-21 12:32   来源:维塔尔云    作者:维塔尔云

使用融合云和MongoDB的实时车队管理

大多数组织都有车队,一组用于日常运营的车辆。电信公司使用各种各样的车辆,包括汽车、面包车和卡车进行服务、交付和维护。矿业公司使用远程车队,包括巨型卡车、起重机和自动列车。运输和物流公司利用大型卡车车队为客户服务。租赁公司、经销商、金融公司和保险公司使用车队数据来更好地了解和响应客户的需求。车队通过其车辆的遥测设备发出各种实时事件,并且围绕遥测数据构建了许多用例,包括:提高客户满意度:高效路线和按时提供服务,提高驾驶质量减少碳足迹:提高燃油效率并优化驾驶模式优化车队维护:根据性能和使用情况监控备件库存和自动化服务计划提高驾驶员安全性:实时监控驾驶员行为和表现车队管理本身也具有挑战性,因为涉及的数据太多。例如,一家典型的运输公司可以很容易地在全国运营数千辆卡车,这些卡车来自不同的制造商,具有不同的能力。建立一个单一的窗格来监视如此庞大的舰队是一个需要解决的复杂问题。本文展示了如何使用融合云、完全管理的ksqlDB、使用MongoDB连接器的Kafka Connect和完全管理的数据库即服务MongoDB Atlas来构建一个简单的车队管理解决方案。汇合云将用于:从各种舰队实时获取遥测数据处理实时事件并采取措施(例如,如果卡车驾驶员在5分钟内施加紧急制动超过三次,则触发危险事件)在车队移动时,物联网技术及应用,共同关联/加入多个事件(例如,通过加入车队的GPS数据来确定交付ETA)MongoDB是一个现代化的通用数据库平台。它的独特设计旨在为数据存储和使用提供更大的灵活性和可扩展性。它是围绕JSON文档模型构建的,大数据的应用,JSON文档模型允许开发人员以更自然、直观和高效的方式处理数据。它使用与传统关系数据库根本不同的模式。因为MongoDB模式是完全灵活的,并且可以随文档的不同而变化,所以MongoDB特别适合于车队管理。请看一下这个参考体系结构,深入了解融合平台和MongoDB是如何互补的。MongoDB Atlas是MongoDB的完全托管云服务,内置操作和安全最佳实践。在本练习中,MongoDB Atlas将用于:存储事件和位置数据以进行历史分析管理驾驶员和车队的端到端生命周期(驾驶员档案、车队规格、注册详情、联系方式等)提供用户界面以捕获更改、构建监控仪表板等。先决条件注册一个Confluent云帐户,为ApacheKafka®broker和Confluent Schema Registry生成API密钥和机密在mongodbatlas中启动一个数据库并获取用户名和密码安装docker compose以启动Kafka Connect数据采集在现实世界中,有多种设备可以生成遥测数据。车队自带标准传感器,如GPS跟踪、燃油、胎压、重量、里程表和刹车。此外,企业安装定制传感器要么是为了增加更多的监控功能,要么是因为车队没有自带传感器。此外,还有专门的设备来监测驾驶员疲劳、驾驶室空气质量、自动辅助等。在本练习中,我们将使用Voluble模拟遥测数据。Voluble是一个Kafka连接器,可以为一个或多个主题生成模拟数据。来源:舰队遥测位置主题:从舰队的GPS获取位置坐标流{"driverId":"76453","timestamp":"2020年4月22日星期三22:47:08","经度":"-9.4150367","fleetId":"22712764","纬度":"71.725014"}事件主题:从使用紧急刹车、超速、空转、点火开关打开等的车队捕捉事件。{"driverId":"76452","timestamp":"2020年4月24日星期五10:58:10 UTC","经度":"88.269588","fleetId":"25873937","eventType":"紧急刹车",购物返利,"纬度":"2.7032992"}来源:最终用户状态主题:接收来自最终用户的状态检查请求,数据分析工具有哪些,以计算交付ETA{"fleetId":"11799846","timestamp":"2020年4月23日星期四17:46:50"}图片来源:MongoDBMongo车队司机主题:来自MongoDB车队数据库的驱动程序配置文件(包括更改){"allowedVehicleType":"HDT","Name":"保罗·克莱",积分返现,"drivingRating":"2","driverId":"76453","lastmodified":"2020年4月24日星期五02:41:16 UTC","licenseNumber":"7854692092","手机":"597-686-5388"}设置Kafka Connect为了简单起见,使用下面的docker-合成.yml提出卡夫卡连接和融合云整合。Confluent Cloud现在还允许您预览完全托管的MongoDB Atlas Sink连接器和MongoDB Atlas源连接器。此过程将在Kafka Connect中安装以下连接器:MongoDB源和接收器滔滔不绝---版本:"3"服务:kafka-connect-01:图片:confluentinc/cp kafka-连接:5.5.0集装箱名称:kafka-connect-01端口:-8083:8083环境:CONNECT_LOG4J_APPENDER_STDOUT_LAYOUT_CONVERSIONPATTERN:"[%d]%p%X"{连接器.context}%m(%c:%L)%n"连接丘比特卡夫卡超时:300     ##连接引导服务器:":9092"CONNECT_REST_adverted_HOST_名称:"kafka-CONNECT-01"连接端口:8083CONNECT U组U ID:kafka-CONNECT-GROUP-01-v04连接配置存储主题:_kafka-CONNECT-group-01-v04-configsCONNECT_OFFSET_存储_主题:_kafka-CONNECT-group-01-v04-OFFSET连接状态存储主题连接密钥转换器:org.apache.kafka.connect.storage.StringConverter     ##CONNECT_VALUE_CONVERTER_SCHEMAS_ENABLE:"false"     ##CONNECT_KEY_CONVERTER_SCHEMA_REGISTRY_URL:"https://"CONNECT_KEY_CONVERTER峎BASIC_AUTH_CREDENTIALS_SOURCE:"用户信息"     ##CONNECT_KEY_CONVERTER_SCHEMA_REGISTRY_BASIC_AUTH_USER_INFO:":"连接值转换器:org.apache.kafka.connect.json.json转换器CONNECT_VALUE_CONVERTER_SCHEMA_REGISTRY_URL:"https://"CONNECT_VALUE_CONVERTER峎BASIC_AUTH_CREDENTIALS_SOURCE:"用户信息"CONNECT_VALUE_CONVERTER_SCHEMA_REGISTRY_BASIC_AUTH_USER_INFO:":"CONNECT_INTERNAL_KEY_转换器:'org.apache.kafka.connect.json.json转换器'CONNECT_INTERNAL_VALUE_转换器:'org.apache.kafka.connect.json.json转换器'CONNECT_LOG4J_ROOT_LOGLEVEL:'信息'连接录像机:'org.apache.kafka.connect.runtime.rest=警告,org.reflections=错误'连接配置存储复制系数3连接偏移量存储复制系数3连接状态存储复制系数3CONNECT_PLUGIN_路径:'/usr/share/java,/usr/share/confluent hub components/'#融合云配置连接请求超时毫秒:"20000"连接/重试/退避:"500"CONNECT_SSL_ENDPOINT_IDENTIFICATION_算法:"https"连接机制:"普通"CONNECT_SECURITY_协议:"SASL\u SSL"     ##连接配置:"org.apache.kafka.普通.安全.普通.PlainLoginModule所需用户名=\"\"password=\"\";"     #连接用户安全协议:"SASL"CONNECT_CONSUMER_SSL_ENDPOINT_IDENTIFICATION_算法:"https"连接消费者机制:"普通"     ##连接用户配置:"org.apache.kafka.普通.安全.普通.PlainLoginModule所需用户名=\"\"password=\"\";"连接用户请求超时毫秒:"20000"连接用户/重试/退避:"500"     #CONNECT_PRODUCER_SECURITY_协议:"SASL\u SSL"CONNECT_PRODUCER_SSL_ENDPOINT_IDENTIFICATION_算法:"https"CONNECT_PRODUCER_SASL_机制:"普通"     ##连接制作人配置:"org.apache.kafka.普通.安全.普通.PlainLoginModule所需用户名=\"\"password=\"\";"CONNECT_PRODUCER_REQUEST_TIMEOUT_MS:"20000"CONNECT_PRODUCER_RETRY_BACKOFF_MS:"500"#外部机密配置#见https://docs.confluent.io/current/connect/security.html\externalizing-秘密CONNECT_CONFIG_PROVIDERS:'文件'连接配置提供程序\文件\类:'org.apache.kafka.common.config.provider.FileConfigProvider'命令:-砰--c     - |echo"安装连接器插件"汇流集线器安装--无提示mdrogalis/口才:0.3.0汇流集线器安装——无提示mongodb/kafka connect-mongodb:1.1.0版      #echo"启动Kafka Connect worker"/etc/confluent/docker/run&      #无极睡眠启动Kafka Connect在放置docker的目录中执行此命令-合成.yml:码头工人准备配置连接器滔滔不绝使用以下Connect config安装Voluble producer,它被配置为生成位置、事件和状态主题的数据。我们在下面的一个例子中模拟了一个舰队。更多关于可辩配置的详细信息可以在汇流集线器上找到。{"name":"无线遥测产品

上一篇:物联网数据流处理:大数据的培训-挑战、最佳实践和技术
下一篇:宣布MongoDB Atlas汇聚云世界人工智能-中的接收器和源连接器

分享到:
0
最新资讯
阅读排行