Suite

Un service de carte mis en cache peut-il suivre automatiquement les changements de classe d'entités et mettre à jour uniquement les emplacements modifiés

Un service de carte mis en cache peut-il suivre automatiquement les changements de classe d'entités et mettre à jour uniquement les emplacements modifiés


Y a-t-il une option que je peux activer dans un service de carte en cache arcgis 10.2, afin de mettre à jour automatiquement les tuiles pour les emplacements qui ont été modifiés ?

Si ce n'est pas si simple, je suppose que je devrai :

Ciblez vos mises à jour de cache pour couvrir uniquement les zones où les données ont été modifiées (comme décrit ici)

et comme mentionné ici :

créez un outil personnalisé pour suivre toutes les modifications depuis la dernière mise à jour, puis exportez ces zones modifiées vers une classe d'entités et mettez à jour les tuiles en fonction de la limite de la classe d'entités.

Cependant, comment puis-je suivre les changements dans la classe d'entités ?


6 Gestion des bons de travail

Vous pouvez créer des ordres de travail pour les demandes des clients qui ne peuvent pas être résolues par un appel téléphonique. Vous saisissez des ordres de travail pour demander des travaux sur le site client ou dans un atelier de réparation. Les bons de travail fournissent la base de données centrale pour toutes les informations d'entretien et de réparation et les événements associés à un enregistrement d'équipement, un numéro d'article d'inventaire ou un modèle de produit. Les bons de travail suivent les demandes de réparations en dépôt et les expéditions de pièces de rechange. La majorité des appels de service sont initiés via le module Case, mais le centre de réparation peut également les créer.

Un bon de travail vous permet de suivre toutes les phases nécessaires du travail pour résoudre le problème du client, de la planification du technicien à l'arrivée du technicien et à la réussite des travaux.

Vous pouvez également utiliser des bons de travail pour gérer le flux de travail des tâches de service et d'autres projets. Vous pouvez gérer tous les aspects d'une tâche ou d'un projet de service, notamment :

Création des bons de travail pour la maintenance préventive et corrective.

Envoi d'inventaire à un ordre de travail.

Planification de plusieurs tâches, telles que mécaniques, électriques, etc., dans un ordre de travail.

Suivi de l'avancement d'un ordre de travail par statut.

Suivi des coûts des ordres de travail, tels que la main-d'œuvre, les matériaux, etc.

Enregistrement d'informations détaillées illimitées sur un ordre de travail.

Remplir et fermer un ordre de travail.

6.1.1 Flux du processus de gestion des ordres de travail

Les étapes par lesquelles un bon de travail doit passer pour communiquer avec précision l'avancement des tâches qu'il représente sont le cycle de vie du bon de travail. Vous pouvez choisir d'afficher le formulaire de changement de statut chaque fois que l'ordre de travail progresse dans une étape du cycle de vie. Cet organigramme illustre le flux d'un ordre de travail à travers un cycle de vie d'ordre de travail typique :

Figure 6-1 Exemple de flux de processus de gestion des ordres de travail

6.1.2 Termes et concepts

Ces termes et concepts de gestion des ordres de travail sont utilisés dans ce chapitre :

La garantie qui est associée à l'équipement. Les garanties de base sont généralement incluses dans le prix d'achat de l'équipement et ne sont pas facturables.

Une garantie optionnelle qui peut être achetée pour couvrir les performances de l'équipement au-delà des critères énoncés dans la garantie de base. Ce type de garantie est facturable.

Temps moyen entre pannes (MTBF)

Le temps moyen, la distance ou les événements entre les pannes.

Le temps moyen nécessaire pour réparer un élément défectueux.

Autorisation de retour de matériel (RMA)

Une autorisation du fournisseur pour le client de retourner l'inventaire pour crédit, remplacement ou réparation. Le système crée un numéro d'autorisation pour le fournisseur afin de suivre le retour de l'inventaire. Ceci est également connu sous le nom d'autorisation de retour de marchandise (RGA).

Les chiffres ou les lettres qui identifient de manière unique un élément. Le numéro de série est stocké dans la table Asset Master File (F1201).

La combinaison du type de service et de la couverture du contrat qui spécifie le support de service auquel le client a contractuellement droit. Les packages de services spécifient également les types de garantie, tels que de base ou prolongée.

Le numéro du carnet d'adresses du site où se trouve un équipement. Le numéro de site peut être le même que le numéro de client, mais il peut différer si le client possède plusieurs sites.

6.1.3 Applications mobiles pour les bons de travail (mise à jour de la version 9.1)

Les applications mobiles suivantes sont disponibles et peuvent être utilisées pour gérer les ordres de travail, et saisir et mettre à jour la saisie des heures pour les ordres de travail de service sur un appareil mobile :

Examiner les ordres de travail de l'équipe (Smartphone et tablette)

Saisie de l'heure de la commande de service (Smartphone et tablette)

Gérer mes commandes de service (Smartphone et tablette)

Ces applications nécessitent une configuration de l'administrateur système avant d'être disponibles pour les utilisateurs individuels. Contactez votre administrateur système pour déterminer si ces applications peuvent être utilisées.

De plus, consultez les rubriques suivantes dans le Guide de mise en œuvre des applications d'entreprise mobiles JD Edwards EnterpriseOne Applications :


Version de l'adresse IP

Les adresses IP publiques sont créées avec une adresse IPv4 ou IPv6.

Pour en savoir plus sur la mise à niveau du SKU, reportez-vous à la mise à niveau de l'IP publique.

Les adresses IP publiques sont créées avec l'un des SKU suivants :

Des références SKU correspondantes sont requises pour l'équilibreur de charge et les ressources IP publiques. Vous ne pouvez pas avoir un mélange de ressources SKU de base et de ressources SKU standard. Vous ne pouvez pas attacher des machines virtuelles autonomes, des machines virtuelles dans une ressource d'ensemble à disponibilité ou des ressources d'ensemble de machines virtuelles identiques aux deux SKU simultanément. Les nouvelles conceptions doivent envisager d'utiliser les ressources SKU standard. Veuillez consulter Standard Load Balancer pour plus de détails.

Standard

Adresses IP publiques SKU standard :

  • Utilisez toujours la méthode d'allocation statique.
  • Avoir un délai d'inactivité du flux d'origine entrant réglable de 4 à 30 minutes, avec une valeur par défaut de 4 minutes, et un délai d'inactivité du flux d'origine sortant fixe de 4 minutes.
  • Sécurisé par défaut et fermé au trafic entrant. Autoriser le trafic entrant avec un groupe de sécurité réseau.
  • Attribué aux interfaces réseau, aux équilibreurs de charge publics standard ou aux passerelles d'application. Pour plus d'informations sur l'équilibreur de charge standard, consultez Azure Standard Load Balancer.
  • Peut être redondant par zone (annoncé à partir des 3 zones), zonal (garanti dans une zone de disponibilité présélectionnée spécifique) ou sans zone (non associé à une zone de disponibilité présélectionnée spécifique). Pour en savoir plus sur les zones de disponibilité, consultez Présentation des zones de disponibilité et Équilibreur de charge standard et zones de disponibilité. Les adresses IP redondantes de zone ne peuvent être créées que dans les régions où 3 zones de disponibilité sont actives. Les adresses IP créées avant que les zones ne soient actives ne seront pas redondantes de zone.
  • Peut être utilisé comme adresse IP d'interface Anycast pour les équilibreurs de charge interrégionaux (fonctionnalité d'aperçu).

La communication entrante avec une ressource SKU standard échoue tant que vous n'avez pas créé et associé un groupe de sécurité réseau et autorisé explicitement le trafic entrant souhaité.

Seules les adresses IP publiques avec SKU de base sont disponibles lors de l'utilisation du service de métadonnées d'instance IMDS. Le SKU standard n'est pas pris en charge.

Les paramètres de diagnostic n'apparaissent pas sous le panneau de ressources lors de l'utilisation d'une adresse IP publique SKU standard. Pour activer la connexion à votre ressource d'adresse IP publique standard, accédez aux paramètres de diagnostic sous le panneau Azure Monitor et sélectionnez votre ressource d'adresse IP.

De base

Toutes les adresses IP publiques créées avant l'introduction des SKU sont des adresses IP publiques SKU de base.

Avec l'introduction des SKU, spécifiez la SKU que vous souhaitez que l'adresse IP publique soit.

  • Affecté avec la méthode d'allocation statique ou dynamique.
  • Avoir un délai d'inactivité du flux d'origine entrant réglable de 4 à 30 minutes, avec une valeur par défaut de 4 minutes, et un délai d'inactivité du flux d'origine sortant fixe de 4 minutes.
  • Sont ouverts par défaut. Les groupes de sécurité réseau sont recommandés mais facultatifs pour restreindre le trafic entrant ou sortant.
  • Attribué à n'importe quelle ressource Azure qui peut se voir attribuer une adresse IP publique, telle que :
    • Interfaces réseau
    • Passerelles VPN
    • Passerelles d'applications
    • Équilibreurs de charge publics

    Questions d'entretien AWS & Réponses

    Voici la liste des questions et réponses d'entretien AWS les plus fréquemment posées lors d'entretiens techniques. Ces questions et réponses AWS conviennent à la fois aux professionnels les plus récents et aux professionnels expérimentés de tous les niveaux. Les questions s'adressent aux professionnels AWS intermédiaires à quelque peu avancés, mais même si vous n'êtes qu'un débutant ou un novice, vous devriez être en mesure de comprendre les réponses et les explications que nous donnons ici. Ces questions et réponses d'entretien AWS vous guideront pour effacer.

    • Praticien Cloud certifié AWS
    • Développeur certifié AWS – Associé
    • Administrateur SysOps certifié AWS – Associé
    • Architecte de solutions certifié AWS – Associé
    • Ingénieur DevOps certifié AWS - Professionnel
    • Architecte de solutions certifié AWS - Professionnel
    • Big Data certifié AWS – Spécialité

    Meilleures questions d'entretien AWS et réponses pour les stages

    Besant Technologies soutient les étudiants en fournissant des questions et des réponses d'entretien AWS pour les stages et les objectifs de l'emploi. AWS est le principal cours important dans la situation actuelle, car davantage d'offres d'emploi et le salaire élevé pour ces services Web Amazon et d'autres emplois connexes. Nous proposons également la formation en ligne AWS à tous les étudiants du monde entier via le support Gangboard. Ce sont les principales questions et réponses d'entretien AWS, préparées par nos formateurs expérimentés de l'institut.
    Voici la liste des questions et réponses d'entretien Amazon Web Services les plus fréquemment posées lors d'entretiens techniques. Ces questions et réponses conviennent à la fois aux débutants et aux professionnels expérimentés à tous les niveaux. Les questions s'adressent aux professionnels AWS intermédiaires à quelque peu avancés, mais même si vous n'êtes qu'un débutant ou un novice, vous devriez être en mesure de comprendre les réponses et les explications que nous donnons ici.

    Réponse : sous-réseau, passerelle Internet, passerelle NAT, connexion VPN matérielle, passerelle privée virtuelle, passerelle client, routeur, connexion d'appairage, point de terminaison VPC pour S3, passerelle Internet de sortie uniquement.

    Rép : Les groupes de sécurité peuvent être utilisés pour protéger vos instances EC2 dans un VPC. Nous pouvons configurer le trafic ENTRANT et SORTANT dans un groupe de sécurité qui permet un accès sécurisé à vos instances EC2. Security Group refuse automatiquement tout accès non autorisé à vos instances EC2.

    Réponse : Au départ, vous êtes limité à lancer 20 instances EC2 à la fois. La taille maximale du VPC est de 65 536 instances.

    Réponse : impossible. Les connexions d'appairage sont disponibles uniquement entre les VPC de la même région.

    Réponse : Oui, possible. À condition que le propriétaire des autres VPC accepte votre connexion.

    Réponse : passerelle Internet, passerelle privée virtuelle, NAT, points de terminaison, connexions d'appairage.

    Réponse : Oui, possible. À condition qu'une passerelle Internet soit configurée de manière à ce que le trafic soit limité aux instances EC2 s'exécutant dans d'autres VPC.

    Rép : Il est possible d'utiliser la fonction Amazon VPC Flow-Logs.

    Réponse : un groupe de sécurité définit le trafic autorisé VERS ou DEPUIS l'instance EC2. Tandis qu'ACL, les contrôles au niveau du SOUS-RÉSEAU, scrutent le trafic VERS ou À PARTIR d'un sous-réseau.

    Réponse : en utilisant soit une adresse IP publique, soit une adresse IP élastique.

    Réponse : PAAS (Platform As A Service), IAAS (Infrastructure As A Service), SAAS (Software As A Service)

    Réponse : création d'instances en double pendant les heures de bureau chargées. Scale-IN et Scale-OUT sont deux statues différentes de la mise à l'échelle. Scale-IN : Réduction des instances. Scale-Out : Augmenter les instances par duplication.

    Réponse : AMI est défini comme Amazon Machine Image. Fondamentalement, il s'agit d'un modèle comprenant une partie de configuration logicielle. Par exemple, système d'exploitation, serveur de base de données, serveur d'applications, etc.,

    Réponse : Lorsque vous ARRÊTEZ une instance, il s'agit d'un arrêt normal. Le volume EBS correspondant attaché à cette instance reste attaché et vous pouvez redémarrer l'instance ultérieurement. Lorsque vous TERMINEZ une instance, elle est supprimée et vous ne pouvez plus la redémarrer ultérieurement. Et tout volume EBS attaché à cette instance a également été supprimé.

    Réponse : Non recommandé. Parce que le but d'avoir une instance RDS de secours est d'éviter une défaillance de l'infrastructure. Vous devez donc conserver votre service RDS de secours dans une zone de disponibilité différente, qui peut avoir une infrastructure différente.

    Réponse : RDS est destiné uniquement aux données structurées. DynamoDB est destiné aux données non structurées qui sont un service NoSQL. Redshift est un produit d'entrepôt de données utilisé pour l'analyse de données.

    Réponse : les hooks de cycle de vie sont utilisés dans Auto Scaling. Les hooks de cycle de vie vous permettent d'effectuer des actions personnalisées en suspendant les instances lorsqu'un groupe Auto Scaling les lance ou les termine. Chaque groupe Auto Scaling peut avoir plusieurs hooks de cycle de vie.

    Réponse : S3 signifie Simple Storage Service, avec une interface de service Web simple pour stocker et récupérer n'importe quelle quantité de données à partir de n'importe où sur le Web.

    Réponse : Lambda est une plateforme événementielle. Il s'agit d'un service de calcul qui exécute du code en réponse à des événements et gère automatiquement les ressources de calcul requises par ce code.

    Réponse : Par défaut, 100 seaux peuvent être créés dans une région.

    Réponse : Amazon CloudFront est un service qui accélère le transfert de votre contenu Web statique et dynamique, tel que les fichiers HTML, les fichiers IMAGE, etc.

    Réponse : S3, un service de stockage simple d'Amazon. Vous pouvez déplacer vos fichiers VERS et DEPUIS S3. C'est comme un stockage FTP. Vous pouvez conserver vos INSTANTANÉS dans S3. Vous pouvez également CRYPTER vos données sensibles dans S3.

    Réponse : Amazon a hébergé EC2 à divers endroits dans le monde. Ces emplacements sont appelés RÉGIONS. Par exemple en Asie, Mumbai est une région et Singapour est une autre région. Chaque région est composée d'emplacements isolés appelés ZONES DISPONIBLES. La région est indépendante. Mais les zones disponibles sont liées via des liens à faible latence.

    Réponse : LB classique et LB d'application. ALB est le routage basé sur le contenu.

    Réponse : Oui. Un développeur peut créer une AMI et la partager avec d'autres développeurs pour leur usage. Une AMI partagée contient les composants dont vous avez besoin et vous pouvez les personnaliser selon vos besoins. Comme vous n'êtes pas propriétaire d'une AMI partagée, il y a toujours un risque.

    Réponse : Un hyperviseur est une sorte de logiciel qui permet la virtualisation. Il combine des ressources matérielles physiques dans une plate-forme qui est livrée virtuellement à un ou plusieurs utilisateurs. XEN est l'hyperviseur pour EC2.

    Rép : Vous utilisez Key Pair pour vous connecter à votre instance de manière sécurisée. Vous pouvez créer une paire de clés à l'aide de la console EC2. Lorsque vos instances sont réparties sur plusieurs régions, vous devez créer une paire de clés dans chaque région.

    Réponse : ClassicLink permet aux instances de la plate-forme classique EC2 de communiquer avec les instances du VPC à l'aide d'une adresse IP privée. Les instances de la plate-forme classique EC2 ne peuvent pas être liées à plusieurs VPC à la fois.

    Réponse : Oui. Vous pouvez toujours modifier les règles de routage pour spécifier quels sous-réseaux sont routés vers la passerelle Internet, la passerelle réseau privé virtuel ou d'autres instances.

    Réponse : 5 adresses IP VPC Elastic par compte AWS et par région

    Réponse : NON, vous ne pouvez pas. Il n'est pas pris en charge. Cependant, vous pouvez envoyer un ping aux instances EC2 au sein d'un VPC, à condition que votre pare-feu, vos groupes de sécurité et vos ACL réseau autorisent un tel trafic.

    Rép : à l'aide de la fonction de journaux de flux Amazon VPC.

    Réponse : après avoir sélectionné votre modèle d'AMI et votre type d'instance, lors de la troisième étape de la configuration de l'instance, vous devez sélectionner le SOUS-RÉSEAU dans lequel vous souhaitez lancer votre instance. Il sera lancé dans la zone de disponibilité associée à ce SOUS-RÉSEAU.

    Réponse : NON. Normalement, un IG est HORIZONTALEMENT ÉCHELLE, redondant et hautement disponible. Il n'a généralement pas de contraintes de bande passante.

    Réponse : lorsque vous lancez vos instances dans un VPC par défaut dans une région, vous bénéficiez de fonctionnalités réseau avancées. Vous pouvez également utiliser des groupes de sécurité, plusieurs adresses IP et plusieurs interfaces réseau.

    Ans : Vous pouvez utiliser, à condition qu'il soit situé dans la même région où votre VPC est présenté.

    Réponse : La connexion de peering disponible de l'autre côté serait également interrompue. Il n'y aura plus de circulation.

    Réponse : NON. C'est possible entre VPC dans la même région.

    Réponse : Oui. Uniquement lorsque ce propriétaire accepte votre demande de connexion d'appairage.

    Réponse : lorsqu'une instance de base de données est supprimée, RDS conserve l'instantané de base de données créé par l'utilisateur ainsi que tous les autres instantanés de base de données créés manuellement. De plus, les sauvegardes automatisées sont supprimées et seuls les instantanés de base de données créés manuellement sont conservés.

    Rép : L'adresse IP publique est associée à l'instance jusqu'à ce qu'elle soit arrêtée ou résiliée uniquement. Une IP publique n'est pas statique. Chaque fois que votre instance est arrêtée ou résiliée, l'adresse IP publique associée disparaît et une nouvelle adresse IP publique est attribuée à cette instance. Pour surmonter ce problème, une adresse IP publique peut être remplacée par une adresse IP Elastic, qui reste avec l'instance tant que l'utilisateur ne la détache pas manuellement. De même, si vous hébergez plusieurs sites Web sur votre serveur EC2, dans ce cas, vous pouvez avoir besoin de plusieurs adresses IP Elastic.

    Réponse : les sites Web hébergés sur vos instances EC2 peuvent charger leur contenu statique directement depuis S3. Il fournit une infrastructure de stockage de données hautement évolutive, fiable, rapide et peu coûteuse.

    Rép : Oui, vous pouvez très bien le faire en établissant une connexion VPN entre le réseau de votre entreprise et Amazon VPC.

    Rép : Une IP privée est STATIQUE. Et il est attaché à une instance tout au long de sa vie et ne peut pas être modifié.

    Réponse : Lorsqu'un réseau a plus d'hôtes, la gestion de ces hôtes peut être fastidieuse sous un seul grand réseau. Par conséquent, nous divisons ce grand réseau en sous-réseaux facilement gérables (sous-réseaux) afin que la gestion des hôtes sous chaque sous-réseau devienne plus facile.

    Réponse : La table de routage est utilisée pour router les poches du réseau. En général, une table de routage serait disponible dans chaque sous-réseau. La table de routage peut avoir n'importe quel non. d'enregistrements ou d'informations, il est donc également possible de rattacher plusieurs sous-réseaux à une table de routage.

    Réponse : le serveur de secours ne peut pas être utilisé en parallèle avec le serveur principal à moins que votre instance principale ne tombe en panne.

    Réponse : Le drainage de connexion est un service sous Elastic Load Balancing. Il continue de surveiller la santé des instances. Si une instance échoue, le drainage de connexion extrait tout le trafic de cette instance en échec particulière et réachemine le trafic vers d'autres instances saines.

    Réponse : CloudTrail est conçu pour la journalisation et le suivi des appels d'API. Également utilisé pour auditer tous les accès au compartiment S3.

    Réponse : le service ATA accélère le transfert de vos données grâce à l'utilisation de chemins réseau optimisés. Accélérez également votre CDN jusqu'à 300% par rapport à la vitesse de transfert de données normale


    Dernière modification : 3 mars 2021

    Grâce à la combinaison de l'annuaire XM et des commentaires sur le site Web, vous pouvez lier automatiquement les réponses à l'enquête sur le site aux contacts, utiliser des règles de fréquence de contact pour modérer les interceptions que voient les visiteurs et cibler des segments de clientèle spécifiques à forte valeur ajoutée avec les interceptions sur votre site. Désormais, vous pouvez également créer des distributions d'interception directement dans l'interface utilisateur de l'annuaire XM.

    Pour en savoir plus sur cette version de fonctionnalité, cliquez ici.


    Créer des cartes d'intérieur

    Vous pouvez tirer parti des données existantes pour créer et maintenir des cartes d'intérieur. Pendant les phases de construction ou de rénovation, les travaux d'architecture et d'ingénierie comprennent des dessins de plan d'étage créés avec des outils de dessin assisté par ordinateur (CAO). Creator propose un service de conversion qui permet aux développeurs de télécharger ces plans d'étage basés sur la CAO et de les convertir en données cartographiques qui peuvent être enrichies d'autres détails. Par exemple, vous pouvez créer des espaces logiques représentant des zones couvertes par des caméras ou par un signal Wi-Fi, et ajouter des emplacements d'équipement pour aider à trouver des imprimantes et des extincteurs. Vous pouvez créer des cartes avec plusieurs bâtiments, comme des campus d'entreprise et des hôpitaux, mettre les bâtiments en relation les uns avec les autres en utilisant le contexte géographique et ajouter facilement des fonctions utiles telles que le routage d'un bâtiment à un autre.

    Nous envisageons un écosystème de partenaires offrant des services spécialisés ou une technologie complémentaire facilitant la collecte et le traitement de données cartographiques intérieures utiles. L'un des partenaires parmi les premiers à adopter la fonctionnalité Creator est Archidata. Archidata a 25 ans d'expérience dans le développement d'outils et de procédés de mise à niveau des documents architecturaux pour permettre à ses clients immobiliers d'évoluer au même rythme que la technologie facilement et à moindre coût. Archidata a développé la capacité de convertir les plans architecturaux des clients pour répondre aux exigences du package Azure Maps Drawing à partir de n'importe quel format de document, y compris les dessins AutoCAD, PDF, plans papier numérisés ou modèles Revit.


    Configurer les propriétés d'administration du serveur

    Le administrateursys Le sous-système permet un contrôle en temps réel sur certaines des propriétés générales du référentiel. Le sous-système sysAdmin remplace le bean de gestion RepoServerMgmt.

    Configurer les paramètres d'administration du serveur

    La page Paramètres système affiche les paramètres de votre serveur, les paramètres du référentiel d'applications Web Content Service et les paramètres de l'application Alfresco Share.

    Dans le Général rubrique, cliquez sur Les paramètres du système pour voir les détails de votre installation.

    Met le Paramètres du référentiel Propriétés:

    Ces propriétés sont en lecture seule et sont définies dans le fichier alfresco-global.properties uniquement. Consultez les propriétés commençant par alfresco dans les propriétés du sous-système sysAdmin.

    Met le Paramètres du serveur Propriétés:

    Met le Partager les paramètres de l'application Propriétés:

    Cliquez sur sauver pour appliquer les modifications que vous avez apportées aux propriétés.

    Propriétés du sous-système sysAdmin

    Les propriétés suivantes peuvent être configurées pour le sous-système sysAdmin.

    Biens La description
    server.maxusers Le nombre maximum d'utilisateurs autorisés à se connecter ou -1 s'il n'y a pas de limite.
    server.allowedusers Une liste séparée par des virgules des utilisateurs autorisés à se connecter. Laissez vide si tous les utilisateurs sont autorisés à se connecter.
    server.allowWrite Propriété booléenne. Lorsqu'il est défini sur true, cela indique que le référentiel autorisera les opérations d'écriture (à condition que la licence soit valide). Définissez cette propriété sur false pour mettre le référentiel en mode lecture seule.

    Les propriétés suivantes spécifient les paramètres qui contrôlent la manière dont Content Service génère des URL vers le référentiel et Alfresco Share. Ces paramètres devront peut-être être modifiés à partir de leurs valeurs par défaut pour permettre la résolution des URL par un ordinateur externe.

    Biens La description
    alfresco.context Spécifie le chemin de contexte de l'application Web du référentiel. La valeur par défaut est en plein air .
    alfresco.host Spécifie le nom d'hôte pouvant être résolu en externe de l'application Web. La valeur par défaut est $ . Si la valeur par défaut est utilisée, alors le jeton $ est automatiquement remplacé par le nom de domaine du serveur de référentiel.
    alfresco.port Spécifie le numéro de port pouvant être résolu en externe de l'URL de l'application Web. La valeur par défaut est 8080 .
    alfresco.protocole Spécifie le composant de protocole de l'application Web. La valeur par défaut est http .
    partager.contexte Spécifie le composant de chemin de contexte de l'URL de l'application Web Alfresco Share. La valeur par défaut est share .
    partager.hôte Spécifie le nom d'hôte pouvant être résolu en externe de l'URL de l'application Web Alfresco Share. La valeur par défaut est $ .
    partager.port Spécifie le numéro de port pouvant être résolu en externe de l'URL de l'application Web Alfresco Share. La valeur par défaut est 8080 .
    partager.protocole Spécifie le protocole à utiliser. La valeur par défaut est http .


    • La découverte automatique VPLS prend en charge uniquement les adresses IPV4.

    • La découverte automatique VPLS utilise la classe d'équivalence de transfert (FEC) 129 pour transmettre les informations de point de terminaison. Les pseudo-fils configurés manuellement utilisent FEC 128.

    •La découverte automatique VPLS n'est pas prise en charge avec le protocole de tunnel de couche 2 version 3 (L2TPv3).

    • La découverte automatique VPLS n'est pas prise en charge avec les configurations de système interautonome.

    • Vous pouvez configurer à la fois des pseudowires découverts automatiquement et configurés manuellement dans une seule instance de transfert virtuel (VFI). Cependant, les pseudowires ne peuvent pas aller au même routeur PE de pair.

    • Si vous configurez manuellement un voisin à l'aide du voisine (VPLS) après avoir activé la découverte automatique VPLS et que les deux pairs sont en mode de découverte automatique, configurez manuellement les valeurs de la cible de route (RT) pour empêcher chaque pair de recevoir des données de découverte pour ce VPLS.

    • Si vous configurez manuellement plusieurs pseudowires et ciblez différentes adresses IP sur le même routeur PE pour chaque pseudowire, n'utilisez pas le même identifiant de circuit virtuel (VC ID) pour identifier les pseudowires terminés sur le même routeur PE.

    •Vous ne pouvez pas configurer un pseudowire en configurant manuellement un voisin sur un routeur PE et en utilisant la découverte automatique sur l'autre routeur PE pour configurer le même pseudowire dans l'autre sens.

    •La sélection de tunnel n'est pas prise en charge avec les voisins détectés automatiquement.

    •Vous pouvez avoir jusqu'à 16 cibles de route uniquement par VFI.

    • Le même RT n'est pas autorisé dans plusieurs VFI dans le même routeur PE.

    •Le processus de découverte automatique BGP ne prend pas en charge le VPLS hiérarchique dynamique. Les routeurs PE (U-PE) orientés utilisateur ne peuvent pas découvrir les routeurs PE (N-PE) orientés réseau, et les routeurs N-PE ne peuvent pas découvrir les routeurs U-PE.

    • Les pseudo-fils pour les voisins détectés automatiquement sont configurés avec l'horizon partagé activé. Par conséquent, configurez manuellement les pseudowires pour le VPLS hiérarchique. Assurez-vous que les routeurs U-PE ne participent pas à la découverte automatique BGP pour ces pseudowires.

    •Ne désactivez pas l'horizon partagé sur les voisins détectés automatiquement. L'horizon partagé est requis avec la découverte automatique VPLS.

    • L'adresse d'homologue provisionnée doit être une adresse /32 liée à l'ID de routeur Label Distribution Protocol (LDP) de l'homologue.

    •Le routeur PE homologue doit pouvoir accéder à l'adresse IP utilisée comme ID de routeur LDP local. Même si l'adresse IP n'a pas besoin d'être utilisée dans le xconnect sur le routeur PE homologue, cette adresse IP doit être accessible.

    • La découverte automatique VPLS est prise en charge sur le matériel du routeur Cisco 7600. Pour plus d'informations sur les adaptateurs de port partagé et les cartes de ligne pris en charge, consultez les documents suivants :

    – Guide du matériel pris en charge pour les routeurs de la gamme Cisco 7600 avec la version 12.2SR

    – Notes de mise à jour pour Cisco IOS version 12.2SR pour les routeurs de la gamme Cisco 7600

    Comment fonctionne la fonctionnalité VPLS

    VPLS permet aux réseaux MPLS (Multiprotocol Label Switching) de fournir des services LAN Ethernet multipoint, également connus sous le nom de services LAN transparents (TLS). Tous les sites clients d'un VPLS semblent se trouver sur le même réseau local, même si ces sites peuvent se trouver dans des emplacements géographiques différents.

    Fonctionnement de la découverte automatique VPLS : fonctionnalité basée sur BGP

    La découverte automatique VPLS permet à chaque routeur VPLS PE de découvrir les autres routeurs PE qui font partie du même domaine VPLS. La découverte automatique VPLS suit également lorsque des routeurs PE sont ajoutés ou supprimés du domaine VPLS. Les fonctions de détection automatique et de signalisation utilisent BGP pour rechercher et suivre les routeurs PE.

    BGP utilise la base d'informations de routage L2VPN (RIB) pour stocker les informations d'approvisionnement des points de terminaison, qui sont mises à jour chaque fois qu'un VFI de couche 2 est configuré. Les informations de préfixe et de chemin sont stockées dans la base de données L2VPN, permettant à BGP de prendre des décisions sur le meilleur chemin. Lorsque BGP distribue les informations d'approvisionnement du point de terminaison dans un message de mise à jour à tous ses voisins BGP, les informations de point de terminaison sont utilisées pour configurer un maillage pseudowire pour prendre en charge les services basés sur L2VPN.

    Le mécanisme de découverte automatique BGP facilite la configuration des services L2VPN, qui font partie intégrante de la fonctionnalité VPLS (Virtual Private LAN Service) de Cisco IOS. VPLS permet une flexibilité dans le déploiement des services en connectant des sites géographiquement dispersés en tant que grand réseau local sur Ethernet haut débit dans un réseau IP MPLS robuste et évolutif. Pour plus d'informations sur BGP et la famille d'adresses L2VPN en relation avec la découverte automatique VPLS, consultez les documents suivants :

    •La section intitulée "L2VPN Address Family" dans la présentation Cisco BGP .

    • Le document intitulé Support BGP pour la famille d'adresses L2VPN

    En quoi l'activation de la découverte automatique VPLS diffère de la configuration manuelle de VPLS

    Avec VPLS Autodiscovery, vous n'avez plus besoin de configurer manuellement le VPLS. Les commandes que vous utilisez pour configurer la découverte automatique VPLS sont similaires à celles que vous utilisez pour configurer manuellement un VPLS, comme indiqué dans le Tableau 1. La découverte automatique VPLS utilise voisine commandes en mode famille d'adresses L2VPN pour distribuer des informations de point de terminaison pour configurer un pseudowire.


    Ignorer les fichiers de linting

    ESLint prend en charge les fichiers .eslintignore pour exclure les fichiers du processus de linting lorsque ESLint fonctionne sur un répertoire. Les fichiers donnés en tant qu'arguments CLI individuels seront exemptés d'exclusion. Le fichier .eslintignore est un fichier texte contenant un motif par ligne. Il peut être situé dans n'importe quel ancêtre du répertoire cible, il affectera les fichiers de son répertoire conteneur ainsi que tous les sous-répertoires. Voici un exemple simple de fichier .eslintignore :

    Une ventilation plus détaillée des modèles et des répertoires pris en charge par ESLint par défaut peut être trouvée dans Ignorer le code.


    Présentation de la planification au niveau de l'étape

    La fonction de planification au niveau de l'étape permet aux utilisateurs de spécifier les besoins en ressources des tâches et de l'exécuteur au niveau de l'étape. Cela permet à différentes étapes de s'exécuter avec des exécuteurs ayant des ressources différentes. Un excellent exemple en est une étape ETL exécutée avec des exécuteurs avec uniquement des processeurs, la prochaine étape est une étape ML qui a besoin de GPU. La planification au niveau de l'étape permet à l'utilisateur de demander différents exécuteurs qui ont des GPU lorsque l'étape ML s'exécute plutôt que d'avoir à acquérir des exécuteurs avec des GPU au démarrage de l'application et qu'ils soient inactifs pendant l'exécution de l'étape ETL. Ceci n'est disponible que pour l'API RDD dans Scala, Java et Python. Il est disponible sur YARN et Kubernetes lorsque l'allocation dynamique est activée. Consultez la page YARN ou la page Kubernetes pour plus de détails sur la mise en œuvre.


    Voir la vidéo: Mise en place au restaurant cas à la carte part 2